I legislatori dell’UE raggiungono un accordo sulla legge sull’intelligenza artificiale, da Stratfor

Una grave mancanza dell’autore consiste nella mancata rilevazione, probabilmente non casuale, dei poteri di controllo e censori dell’autorità pubblica sui contenuti espressi dagli utenti dai termini volutamente vaghi e generici. Giuseppe Germinario

I legislatori dell’UE raggiungono un accordo sulla legge sull’intelligenza artificiale
6 MIN READDic 13, 2023 | 15:39 GMT

I membri del Parlamento europeo partecipano alla votazione della legge sull’intelligenza artificiale durante una sessione plenaria al Parlamento europeo.
I membri del Parlamento europeo partecipano alla votazione della legge sull’intelligenza artificiale durante una sessione plenaria del Parlamento europeo.

La legge sull’intelligenza artificiale dell’UE rafforzerà il dominio dell’Unione europea come peso massimo normativo nelle tecnologie emergenti, ma probabilmente dovrà affrontare problemi di applicazione e le sue rigide clausole probabilmente ostacoleranno l’innovazione e l’uso dell’IA all’interno del blocco. Dopo diversi giorni di discussioni, l’8 dicembre i responsabili politici dell’Unione Europea (UE) hanno raggiunto un accordo provvisorio sulla legge sull’intelligenza artificiale (AI), dando il via libera al nuovo quadro legislativo che dovrebbe essere approvato durante la sessione legislativa parlamentare della primavera 2024. In base all’accordo, tutti i sistemi di IA dovranno rispettare nuovi requisiti di trasparenza e rendicontazione, tra cui valutazioni dei rischi e informazioni pubbliche sulle procedure di formazione e implementazione dell’IA. I legislatori dell’UE hanno anche raggiunto un accordo per regolamentare i modelli di fondazione – i sistemi di IA che sono alla base di servizi come i chatbot – uno degli argomenti più controversi sul tavolo durante le deliberazioni. Le nuove regole, tuttavia, prevedono ampie eccezioni per i modelli di base open-source (quelli sviluppati utilizzando codice liberamente disponibile per gli sviluppatori che possono modificarlo per i propri prodotti e strumenti). L’accordo vieterà anche i sistemi di categorizzazione biometrica e di punteggio sociale, la manipolazione del comportamento cognitivo, lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso e l’uso di sistemi di sorveglianza biometrica in luoghi pubblici. Tuttavia, le forze dell’ordine saranno esenti dalle nuove regole, il che significa che potranno utilizzare le tecnologie dell’intelligenza artificiale per perseguire il traffico di esseri umani, le minacce terroristiche e i crimini violenti. In seguito all’accordo consolidato tra i legislatori dell’UE, il Parlamento europeo dovrebbe approvare la legge sull’IA nella sessione legislativa della primavera del 2024, dopodiché entrerà in vigore nel 2025.

Le nuove norme si baseranno su un sistema di rischio graduale per i modelli di IA, in cui il grado di supervisione normativa sarà più severo per i sistemi che si ritiene presentino un rischio “inaccettabile” o “elevato”, mentre un numero relativamente inferiore di requisiti regolerà i sistemi di IA che presentano rischi “limitati” o “minimi”.
L’AI Act regolamenterà i modelli di base o le IA per scopi generali (GPAI) secondo un approccio a due livelli – basato sulle risorse computazionali che richiedono – con i sistemi di IA più avanzati (sotto i quali attualmente rientrerebbe solo il modello GPT-4 di OpenAI) considerati ad “alto impatto” e che presentano un “rischio sistemico”. Questi modelli di fondazione saranno tenuti a presentare valutazioni dei modelli, a valutare e mitigare le aree di rischio, a condurre test avversari e a segnalare gli incidenti gravi alla Commissione europea.
I compromessi raggiunti sulla legge per i singoli Stati membri dell’UE riflettono le priorità contrastanti di garantire solidi meccanismi di protezione e supervisione, cercando al contempo di promuovere l’innovazione nel settore dell’IA. L’Unione Europea è da tempo leader nella supervisione normativa delle tecnologie digitali ed emergenti e ha sostenuto una solida legislazione protezionistica, in particolare per quanto riguarda la privacy dei dati. Ciò detto, le recenti deliberazioni dell’Unione Europea sull’AI Act hanno accentuato le divergenze di interessi tra gli Stati membri, in particolare Francia, Germania e Italia, che si sono battuti per ridurre i requisiti dei modelli di fondazione. Questi Paesi hanno cercato di esentare completamente i modelli di fondazione dalla nuova legislazione, sostenendo che misure troppo restrittive possono ostacolare il progresso economico. Come compromesso, i legislatori dell’UE si sono accordati su un sistema a due livelli per la supervisione dei modelli di fondazione, dividendo la soglia per i sistemi di IA in modo che i modelli meno sofisticati siano esenti dai requisiti di supervisione più severi inclusi nella nuova legge. L’accordo ha cercato di placare i rappresentanti dell’Unione Europea che chiedevano forti controlli sui modelli di fondazione, capitolando allo stesso tempo alle richieste dei Paesi dell’Unione Europea che volevano ridurre al minimo le restrizioni onerose sul settore dell’IA in via di sviluppo nel blocco. Anche l’uso dell’IA per la sorveglianza e i dati biometrici è stato fortemente contestato, con molti Stati membri dell’UE che hanno cercato di vietare del tutto questi casi d’uso. Tuttavia, altri Stati dell’UE, tra cui la Francia, che ospiterà i giochi olimpici estivi l’anno prossimo, hanno esercitato forti pressioni affinché i governi utilizzassero l’IA per combattere il crimine e le tendenze del terrorismo, riflettendo le priorità concorrenti dei diversi Stati membri. Il compromesso, che consente la sorveglianza da parte delle forze dell’ordine solo in casi espliciti, riflette analogamente gli interessi contrastanti degli Stati dell’UE di regolamentare l’uso corretto dei sistemi di IA e di massimizzare l’utilità degli strumenti di IA, in particolare per gli interessi della sicurezza nazionale.

Francia, Germania e Italia hanno presentato un documento congiunto agli altri governi dell’UE il 20 novembre, sostenendo che l’Europa ha bisogno di un “quadro normativo che promuova l’innovazione e la concorrenza” e che il blocco dovrebbe consentire alle aziende di autoregolamentare i modelli di fondazione attraverso impegni aziendali e codici di condotta.
In un discorso pubblico dell’11 dicembre, il presidente francese Emmanuel Macron ha avvertito che l’AI Act dell’UE rischia di ostacolare le aziende tecnologiche europee rispetto ai rivali di Stati Uniti, Regno Unito e Cina.
Nonostante l’accordo tra gli Stati membri dell’UE, l’attuazione della legislazione incontrerà probabilmente degli ostacoli e potrebbe minare il vantaggio competitivo dell’Unione Europea nel settore dell’IA a lungo termine. Sebbene i responsabili politici dell’UE debbano ancora definire gli aspetti tecnici dei requisiti delle nuove norme, la legge sembra comunque destinata a essere promulgata. Ciononostante, l’attuazione della legge dovrà ancora affrontare degli ostacoli, tra cui la possibilità che nel frattempo si verifichino nuove scoperte nel campo dell’IA, che potrebbero vanificare alcuni aspetti della normativa. Allo stesso modo, l’attuale soglia delle nuove norme per definire i sistemi “ad alto impatto” – quelli con un calcolo pari o superiore a GPT4 – potrebbe essere meno rilevante tra due anni se i successivi modelli di fondazione diventassero molto più avanzati, rendendo potenzialmente la legislazione meno efficace o nulla. Inoltre, l’applicazione dell’AI Act sarà messa a dura prova dalle limitazioni di risorse e di personale all’interno e tra le agenzie di regolamentazione dei diversi Stati membri, che possono potenzialmente soffocare le iniziative di supervisione una volta che le norme saranno in vigore. A prescindere da questi ostacoli, l’attuazione ufficiale dell’AI Act aumenterà in modo significativo i requisiti di trasparenza per le aziende che sviluppano o utilizzano sistemi di IA. Avrà anche implicazioni materiali per i tipi di servizi di IA disponibili per i cittadini e le aziende dell’UE all’interno del blocco. I grandi sviluppatori di IA come OpenAI, Microsoft, Google e Meta limiteranno probabilmente i modelli di base che renderanno disponibili sul mercato europeo, con il rischio di rilasciare sistemi specificamente meno avanzati nel blocco. Di conseguenza, le aziende dell’UE subirebbero limitazioni nei loro sforzi per integrare i servizi di IA in vari casi d’uso commerciali che potrebbero accelerare l’efficienza o la produttività. Poiché molte aziende di altre giurisdizioni, come gli Stati Uniti, incorporano strumenti di IA, le industrie europee faticheranno a competere con i guadagni di efficienza delle loro controparti, riducendo la competitività economica complessiva del blocco nel lungo termine. Inoltre, le aziende con sede nell’UE avranno meno accesso a sistemi avanzati di IA per generare le proprie applicazioni interne di IA, riducendo ulteriormente l’innovazione dell’IA nei casi di utilizzo commerciale.

In base alle nuove norme, i consumatori avranno il diritto di presentare reclami se un’azienda non rispetta le protezioni previste dall’AI Act e le multe per le violazioni andranno da 7,5 milioni di euro (8,1 milioni di dollari) o l’1,5% del fatturato globale a 35 milioni di euro o il 7% del fatturato globale.
Il Regno Unito si è impegnato a perseguire un approccio “pro-innovazione” nel settore dell’IA. Nel settembre 2023, il governo britannico ha presentato sette nuovi principi da applicare ai modelli di fondazione, sottolineando la responsabilità e la trasparenza, ma senza un meccanismo di applicazione vincolante.

ll sito www.italiaeilmondo.com non fruisce di alcuna forma di finanziamento, nemmeno pubblicitaria. Tutte le spese sono a carico del redattore. Nel caso vogliate offrire un qualsiasi contributo, ecco le coordinate: postepay evolution a nome di Giuseppe Germinario nr 5333171135855704 oppure iban IT30D3608105138261529861559 oppure PayPal.Me/italiaeilmondo  Su PayPal, ma anche con il bonifico su PostePay, è possibile disporre eventualmente un pagamento a cadenza periodica, anche di minima entità, a partire da 2 (due) euro (pay pal prende una commissione di 0,52 centesimi)