Comprendere il piano d’azione americano sull’intelligenza artificiale, Parte II_di Tree of Woe
Comprendere il piano d’azione americano sull’intelligenza artificiale, Parte II
La Casa Bianca chiede al Congresso di renderla permanente
21 marzo 2026
Lo scorso luglio, a Comprendere il piano d’azione americano sull’intelligenza artificialeHo esaminato il documento programmatico di 23 pagine dell’amministrazione Trump volto a realizzare quella che la Casa Bianca definiva «una nuova età dell’oro del benessere umano» grazie all’intelligenza artificiale. Il piano era ambizioso, orientato alla deregolamentazione e inconfondibilmente improntato a una visione da «evangelista dell’IA». Ne ho elogiato alcuni aspetti, ne ho criticati altri e ho concluso con la schietta constatazione che, che fosse un buon piano o meno, quello era il piano. Non c’era un piano B.
Sono passati otto mesi e non c’è ancora un piano B. Ma c’è un piano A, parte seconda!

Oggi, 20 marzo 2026, la Casa Bianca ha pubblicato un documento di quattro pagine intitolato Quadro politico nazionale per l’intelligenza artificiale: raccomandazioni legislative. Mentre il Piano d’azione sull’IA originario era un decreto esecutivo, rivolto alle agenzie federali e firmato di proprio pugno dal Presidente, questo nuovo documento è rivolto al Congresso. Esso chiede al potere legislativo di tradurre in legge la visione dell’Amministrazione in materia di IA. I decreti presidenziali, dopotutto, sono scritti sulla sabbia. Ciò che un Presidente decreta, il successivo può cancellarlo. Se il Presidente Trump vuole che la sua politica sull’IA sopravviva a un cambio di amministrazione, ha bisogno di una legge.
Il documento è strutturato in sette punti fondamentali. Ognuno di essi merita un’analisi approfondita. Entriamo nel vivo.
I. Tutela dei minori e sostegno ai genitori
Il primo pilastro invita il Congresso a proteggere i bambini dai rischi legati all’intelligenza artificiale. Esso fa riferimento al Legge “Take It Down”, un’iniziativa di punta della First Lady Melania Trump volta a contrastare l’uso improprio dei deepfake nei confronti dei minori. L’iniziativa prevede inoltre requisiti di verifica dell’età, controlli parentali sulle impostazioni della privacy e sull’esposizione ai contenuti, nonché funzionalità volte a ridurre i rischi di sfruttamento sessuale e autolesionismo.
Questo è un dato di fatto, così come lo è sempre il fatto di «proteggere i bambini». Nessuno basa la propria campagna elettorale su un programma che prevede nonla tutela dei minori. La domanda, come sempre, è: cosa significa in pratica «tutela» e chi ne sostiene i costi?
Il documento contiene tuttavia un’avvertenza davvero importante: «Il Congresso dovrebbe evitare di stabilire criteri ambigui sui contenuti ammessi, o una responsabilità illimitata, che potrebbero dare adito a contenziosi eccessivi». Si tratta di un riconoscimento del fatto che i vaghi obblighi in materia di «sicurezza dei minori» tendono a diventare strumenti di censura. L’approccio dell’UE alla sicurezza dei minori online ha già dimostrato come funziona questo meccanismo: una volta stabilito un quadro normativo per limitare i contenuti «a tutela dei minori», la definizione di contenuto dannoso si espande fino a includere tutto ciò che il regime ritiene scomodo. La Casa Bianca sta segnalando che non vuole che ciò accada.
Inoltre, mantiene la facoltà dello Stato di applicare «le leggi di applicazione generale a tutela dei minori, come il divieto relativo al materiale pedopornografico, anche quando tale materiale è generato dall’IA». Ciò è degno di nota perché implica che, dal punto di vista giuridico, il materiale pedopornografico generato dall’IA debba essere trattato alla stregua di quello reale. Si tratta di una posizione difendibile, ma solleva questioni interessanti riguardo a dove tracciare il confine per altre forme di contenuti generati dall’IA che non raffigurano persone reali impegnate in azioni reali.
Tornerò su questa tensione più avanti, perché riaffiora in una forma più pericolosa nel VII Pilastro.
II. Tutela e rafforzamento delle comunità americane
Il secondo pilastro è un miscuglio eterogeneo. Riunisce in un’unica sezione la rete energetica, la tutela dei consumatori, la sicurezza nazionale e il sostegno alle piccole imprese, dando l’impressione di essere stato redatto da una commissione, probabilmente perché è proprio così.
Tre punti in particolare meritano di essere sottolineati.
Innanzitutto, il Impegno a tutela dei contribuenti. Al Congresso viene chiesto di «garantire che i consumatori residenziali non debbano sostenere un aumento dei costi dell’elettricità a causa della costruzione e della gestione di nuovi data center dedicati all’intelligenza artificiale». Ricordiamo che nel mio saggio di luglio avevo osservato che il Piano d’azione sull’IA rappresentava la fine del movimento per l’energia verde. Questa raccomandazione legislativa lo conferma. La Casa Bianca sta dicendo all’industria energetica: costruite il più velocemente possibile, ma non fate pagare il conto alla nonna. La soluzione è «snellire le procedure federali di autorizzazione» in modo che gli sviluppatori di IA possano realizzare «impianti di generazione di energia in loco e dietro il contatore». In parole povere: lasciate che le aziende tecnologiche costruiscano le proprie centrali elettriche accanto ai loro data center, aggirando completamente la rete.
In realtà è un’idea ingegnosa. Significa che lo sviluppo delle infrastrutture per l’intelligenza artificiale non entra in competizione con il consumo energetico domestico, poiché i data center generano la propria energia elettrica. Significa anche che quando la Casa Bianca afferma di voler «adottare nuove fonti di generazione energetica all’avanguardia (ad esempio, la geotermia avanzata, la fissione nucleare e la fusione nucleare)», il principale cliente di tali tecnologie energetiche all’avanguardia saranno proprio le aziende che operano nel settore dell’intelligenza artificiale. Il Dipartimento dell’Energia diventa, in pratica, un apparato di supporto per le esigenze energetiche della Silicon Valley.
In secondo luogo, il documento invita il Congresso a «garantire che le agenzie competenti nell’ambito della sicurezza nazionale dispongano di capacità tecniche sufficienti per comprendere le potenzialità dei modelli di IA all’avanguardia». Traduzione: la comunità dell’intelligence ha bisogno di competenze proprie in materia di IA per non dipendere interamente da OpenAI e Google per capire cosa sono in grado di fare i loro modelli. Questa è la versione burocratica del «fidati ma verifica». È anche un riconoscimento del fatto che stiamo costruendo armi che non comprendiamo appieno. Ho segnalato questo problema nella mia discussione sull’interpretabilità dell’IA lo scorso luglio, dove l’intera sfida è stata liquidata in un unico punto. Qui riemerge, in giacca e cravatta e parlando il linguaggio del Pentagono.
In terzo luogo, l’invito a «rafforzare le attuali misure di contrasto per combattere le truffe e le frodi basate sull’intelligenza artificiale che prendono di mira le fasce vulnerabili della popolazione, come gli anziani». Questo è il primo segnale che l’intelligenza artificiale sta già causando danni concreti nel mondo reale, al di là dei dibattiti nelle aule dei seminari sull’allineamento e sul rischio esistenziale. La nonna non si preoccupa dei «massimizzatori di graffette». Si preoccupa della telefonata che sembra proprio quella di suo nipote che le chiede i soldi per la cauzione.
III. Rispettare i diritti di proprietà intellettuale e sostenere i creatori
È qui che il documento diventa davvero interessante, perché è proprio in questo punto che la Casa Bianca prende posizione sulla questione giuridica più controversa nel campo dell’intelligenza artificiale: se l’addestramento su materiale protetto da copyright costituisca un caso di «fair use».
La risposta è… un capolavoro di ambiguità strategica:
Sebbene l’Amministrazione ritenga che l’addestramento dei modelli di intelligenza artificiale su materiale protetto da diritto d’autore non violi le leggi sul diritto d’autore, riconosce l’esistenza di argomentazioni contrarie e sostiene pertanto che la questione debba essere risolta dai tribunali.
Rileggilo. La Casa Bianca ti ha appena spiegato come interpreta la legge. Ti ha anche detto che non muoverà un dito per rendere vincolante la propria interpretazione. Al contrario, rimanda la questione alla magistratura.
Si tratta, nel linguaggio delle mie precedenti analisi giuridiche, di un segnale plausibile ma non vincolante. L’Amministrazione sta influenzando l’esito senza intervenire direttamente. Se sei un’azienda che si occupa di IA, leggendo queste righe ti senti rassicurato. Se sei un creatore di contenuti, leggendo queste righe ti senti abbandonato. Se sei un giudice federale, leggendo queste righe alzi le spalle, perché l’opinione dell’esecutivo sul fair use non ha assolutamente alcun valore in un’aula di tribunale di primo grado.
La raccomandazione più sostanziale è l’invito rivolto al Congresso a «valutare la possibilità di istituire quadri normativi in materia di licenze o sistemi di gestione collettiva dei diritti che consentano ai titolari dei diritti di negoziare collettivamente i compensi con i fornitori di IA, senza incorrere in responsabilità antitrust». Questo è significativo. Secondo la legge attuale, se tutti i fotografi d’America si riunissero e dicessero “Chiediamo collettivamente X dollari per immagine a OpenAI”, si tratterebbe di una violazione antitrust da manuale, un cartello di fissazione dei prezzi. La Casa Bianca sta suggerendo al Congresso di creare un’esenzione specifica affinché i titolari dei diritti possano contrattare collettivamente con i giganti della tecnologia.
Ma occorre notare la clausola restrittiva abilmente inserita: «Tale normativa, tuttavia, non dovrebbe stabilire quando o se sia richiesta una licenza». Il Congresso può allestire il tavolo delle trattative, ma non può costringere nessuno a sedersi. Le aziende che operano nel settore dell’IA si riservano il diritto di sostenere di non avere alcun obbligo. Il quadro normativo in materia di licenze è un gesto di equità che, nella pratica, potrebbe non cambiare nulla.
La disposizione sulle repliche digitali è più chiara: si tratta di un diritto federale di pubblicità che tutela la tua voce, la tua immagine e gli «altri attributi identificativi» dalla riproduzione non autorizzata tramite IA, con alcune eccezioni per la parodia, la satira e il giornalismo. Questa è la difesa contro i deepfake per gli adulti, che rispecchia le disposizioni sulla protezione dei minori del Pilastro I. Se qualcuno usa l’IA per realizzare un video in cui dici cose che non hai mai detto, avrai un motivo di ricorso a livello federale. A meno che non sia divertente, di interesse giornalistico o politico, nel qual caso il Primo Emendamento prevale sulla legge. Forse.
IV. Prevenire la censura e tutelare la libertà di espressione
Il quarto pilastro è la sezione più breve e, per questo motivo, potenzialmente la più rivelatrice.
La Casa Bianca esorta il Congresso a «impedire al governo degli Stati Uniti di costringere i fornitori di tecnologia, compresi quelli di intelligenza artificiale, a vietare, imporre o modificare contenuti sulla base di interessi di parte o ideologici». Chiede inoltre «uno strumento efficace che consenta ai cittadini americani di ottenere un risarcimento dal governo federale in caso di tentativi da parte delle agenzie di censurare la libertà di espressione sulle piattaforme di intelligenza artificiale».
Si tratta, senza ombra di dubbio, di una risposta al «complesso industriale della censura» che ha operato durante l’amministrazione Biden, quando le agenzie federali hanno collaborato con le piattaforme dei social media per limitare la libertà di espressione con il pretesto di combattere la «disinformazione». La Casa Bianca vuole che il Congresso dichiari illegale questo tipo di operato e che offra ai cittadini la possibilità di citare in giudizio il governo qualora ciò dovesse verificarsi.
In linea di principio, approvo pienamente questa iniziativa.
In pratica, nutro la stessa obiezione che avevo sollevato a luglio. L’impegno della sinistra a favore della libertà di espressione è sempre provvisorio. Quando la sinistra tornerà alla Casa Bianca, l’impegno a «impedire la coercizione governativa nei confronti dei fornitori di IA» verrà reinterpretato, ridimensionato o semplicemente ignorato a favore della «prevenzione dei contenuti dannosi». La formulazione della legge avrà un’enorme importanza. Una legge ben redatta potrebbe sopravvivere a tale reinterpretazione. Una legge redatta male diventerà carta velina.
Ciò che salta all’occhio in questa sezione è l’assenza totale di qualsiasi riferimento ai pregiudizi ideologici delle stesse aziende di IA. Il Piano d’azione di luglio affrontava almeno questo aspetto, richiedendo linee guida sugli appalti che garantissero che i modelli di linguaggio di nuova generazione (LLM) fossero «oggettivi e privi di pregiudizi ideologici imposti dall’alto». Le raccomandazioni legislative non ne parlano affatto. La Casa Bianca ha fatto marcia indietro persino dalla modesta ambizione di utilizzare il potere d’acquisto federale per spingere i laboratori verso la neutralità. Che ciò rifletta un vero e proprio cambiamento di politica o semplicemente il riconoscimento che il Congresso non legifererà sull’obiettività dell’IA, l’effetto è lo stesso: il problema dei pregiudizi è ora del tutto ignorato nel quadro normativo proposto.
A luglio avevo affermato che ciò di cui abbiamo bisogno è «una vera trasparenza nella progettazione e nella formazione, unitamente a una pluralità di opzioni disponibili che rispecchino la pluralità delle nostre ideologie». Le raccomandazioni legislative non ci avvicinano affatto a tale obiettivo.
V. Promuovere l’innovazione e garantire il primato americano nell’intelligenza artificiale
Il Pilastro V è la sezione più prevedibile. Prevede sandbox normative e set di dati federali aperti, ma non prevede la creazione di un nuovo organismo federale di regolamentazione dell’IA. Chiede alle autorità di regolamentazione esistenti di occuparsi dell’IA nei rispettivi settori.
La posizione contraria alla creazione di un nuovo organismo di regolamentazione è l’aspetto più rilevante in questo contesto, e presenta un’arsta a doppio taglio. Da un lato, l’istituzione di una «Commissione per l’IA» o di un’«Autorità federale per l’IA» favorirebbe la «captura normativa», l’espansione burocratica e l’inevitabile tendenza a soffocare l’innovazione in nome della sicurezza. Ogni nuova agenzia si trasforma in un programma di occupazione per la classe dei professionisti qualificati, che poi lotta per giustificare la propria esistenza. La Casa Bianca ha ragione a essere diffidente.
D’altra parte, l’assenza di un’autorità di regolamentazione dedicata comporta che la governance dell’IA sarà frammentata tra decine di agenzie, nessuna delle quali ha l’IA come missione primaria e la maggior parte delle quali non dispone delle competenze tecniche necessarie per comprendere ciò che sta regolamentando. La SEC regolerà l’IA nel settore dei titoli. La FDA regolerà l’IA in medicina. La FCC regolerà l’IA nelle comunicazioni. Ciascuna svilupperà i propri standard, la propria linea di condotta in materia di applicazione e il proprio corpus di precedenti. Il risultato sarà un mosaico, non un quadro di riferimento.
La Casa Bianca punta sul fatto che un mosaico di normative settoriali sia preferibile a un’autorità di regolamentazione monolitica per l’intelligenza artificiale. Questa scommessa potrebbe rivelarsi azzeccata. Ma va considerata come tale, non come una certezza. È, per quel che vale, l’opposto di ciò che abbiamo fatto con l’energia atomica.
VI. Formare gli americani e creare una forza lavoro pronta per l’intelligenza artificiale
Se la sezione dedicata alla forza lavoro del Piano d’azione di luglio era «quasi una commedia nera», questa versione legislativa è lo scherzo privato della battuta finale.
Si chiede al Congresso di ricorrere a «misure non normative» per integrare la formazione sull’IA nei programmi esistenti in materia di istruzione e forza lavoro. Si chiede inoltre di «ampliare gli sforzi federali volti a studiare le tendenze nel riorientamento della forza lavoro a livello di mansioni determinato dall’IA». Infine, si chiede di «rafforzare le capacità degli istituti universitari fondati grazie a concessioni di terreni» per sviluppare programmi dedicati ai giovani nel campo dell’IA.
Tendenze emerse dagli studi? Programmi pilota? Istituzioni fondate grazie a concessioni fondiarie? In parole povere, questo è il linguaggio di un governo che non ha idea di cosa fare e sta cercando di guadagnare tempo studiando il problema.
A luglio avevo detto che non avevo un piano migliore. E ancora non ce l’ho. Ma il divario tra la retorica («L’IA trasformerà il modo di lavorare in tutti i settori e in tutte le professioni») e la risposta («studiatela nelle università statali») è passato dall’essere comico a qualcosa di più inquietante. Sono passati otto mesi dal Piano d’azione originale. In questi otto mesi, le capacità dell’IA sono progredite in modo sostanziale. Claude, GPT, Gemini e simili sono ora in grado di fare cose che erano solo ipotetiche quando è stato redatto il primo Piano.
L’amministrazione continua a sostenere che l’intelligenza artificiale cambierà ogni aspetto dell’economia, tranne la necessità per gli americani di lavorare. Forse è costretta ad assumere questa posizione. Un presidente in carica non può dire all’elettorato: «I vostri posti di lavoro stanno scomparendo e non sappiamo cosa ci aspetta». Ma il silenzio sull’economia post-lavoro, sulle soluzioni alternative, su ciò che accadrà quando i trattori arriveranno davvero, è assordante.
I cavalli da tiro americani vedono i trattori all’orizzonte, e la risposta del governo consiste essenzialmente nel finanziare uno studio sull’orientamento professionale per i cavalli.
VII. Definizione di un quadro normativo federale, in sostituzione delle complesse leggi statali sull’intelligenza artificiale
Il settimo e ultimo pilastro è, a mio avviso, la parte più importante del documento e quella che merita una lettura più attenta.
La Casa Bianca chiede al Congresso di «prevalere sulle leggi statali in materia di IA che impongono oneri eccessivi, al fine di garantire uno standard nazionale che comporti il minor numero possibile di oneri». Individua poi tre ambiti in cui gli Stati mantengono la propria autorità: i poteri di polizia tradizionali (tutela dei minori, frodi, tutela dei consumatori), le norme urbanistiche relative alle infrastrutture di IA e i requisiti che regolano l’uso dell’IA da parte dello Stato stesso.
E poi arriva la frase chiave:
Non si dovrebbe consentire agli Stati di regolamentare lo sviluppo dell’intelligenza artificiale, poiché si tratta di un fenomeno intrinsecamente transnazionale con importanti implicazioni in materia di politica estera e sicurezza nazionale.
Gli Stati non dovrebbero imporre oneri eccessivi agli americani che utilizzano l’intelligenza artificiale per attività che sarebbero lecite se svolte senza ricorrere a tale tecnologia.
Non dovrebbe essere consentito agli Stati di sanzionare gli sviluppatori di IA per comportamenti illeciti di terzi che coinvolgono i loro modelli.
Seguili in ordine.
Il primo principio, secondo cui gli Stati non possono regolamentare lo sviluppo dell’IA, costituisce una forte affermazione della supremazia federale. Ciò significa che se la California, il Texas o qualsiasi altro Stato approvasse una legge che impone requisiti di sicurezza, obblighi di trasparenza o test agli sviluppatori di IA, il Congresso potrebbe semplicemente ignorarla. La giustificazione è che lo sviluppo dell’IA è “intrinsecamente interstatale”, il che è vero, e ha “implicazioni per la sicurezza nazionale”, il che è altrettanto vero, ma questi stessi argomenti potrebbero giustificare la preminenza federale sulla regolamentazione statale praticamente in qualsiasi settore tecnologico. La clausola sul commercio interstatale è stata estesa fino a coprire il grano coltivato per il consumo personale; può certamente coprire il codice compilato a San Francisco e implementato a Topeka.
L’effetto concreto è quello di concentrare la governance dell’IA a Washington, D.C., dove la lobby tecnologica è più forte e l’approccio normativo è più permissivo. Stati come la California e New York, che hanno cercato di imporre requisiti di sicurezza per l’IA, vedranno vanificati i propri sforzi. Considerando che la proposta di regolamento di New York rappresentava un tentativo da parte dei cartelli professionali di accaparrarsi il potere normativo, questo esito mi soddisfa pienamente.
Il secondo principio, secondo cui l’uso dell’IA non dovrebbe essere ostacolato per attività lecite, sembra banale finché non ci si riflette. Se è lecito che un essere umano scriva un annuncio politico, è lecito che lo faccia un’IA. Se è lecito che un essere umano si candidi per un lavoro, è lecito che sia un’IA a presentare la candidatura. Se è lecito che un essere umano eserciti la professione medica (con una licenza), allora… cosa? Il principio, portato alle sue estreme conseguenze logiche, significa che qualsiasi regolamentazione delle attività assistite dall’IA deve essere giustificata da motivi diversi dal semplice fatto che “è stata un’IA a farlo”. L’IA stessa è uno strumento giuridicamente neutro, come un martello. Si può regolamentare il fatto di martellare il proprio vicino, ma non si possono regolamentare i martelli. Non si può “ostacolare” l’attività dell’IA.
Esiste una argomentazione libertaria coerente a sostegno di questa posizione. La condivido pienamente! Ciò significa però che gli obblighi di trasparenza, come ad esempio l’obbligo di contrassegnare i contenuti generati dall’IA come tali, probabilmente non reggerebbero in questo contesto. Se un essere umano può pubblicare un articolo di opinione senza alcuna indicazione, anche un articolo di opinione generato dall’IA non necessita di alcuna etichetta. Ciò ha implicazioni per il panorama informativo che la sezione sulla libertà di espressione della Casa Bianca non affronta. Forse è involontario, o forse è specificamente intenzionale, nell’aspettativa che la maggior parte del lavoro sarà svolta dall’IA. O forse l’idea è che i requisiti di divulgazione finiranno per essere applicati dai termini di servizio di terze parti, come YouTube che richiede una divulgazione se il contenuto è stato realizzato con l’IA. Lasciare che sia il mercato a stabilire gli standard di divulgazione potrebbe essere fattibile, almeno nella misura in cui i mercati non siano oligopoli in combutta con il governo.
Il terzo principio, secondo cui gli sviluppatori non possono essere penalizzati per un uso improprio da parte di terzi, è quello con le maggiori implicazioni giuridiche. Si tratta, in effetti, della Sezione 230 applicata all’IA. Proprio come le piattaforme dei social media non sono responsabili dei contenuti generati dagli utenti, gli sviluppatori di IA non sarebbero responsabili di ciò che gli utenti fanno con i loro modelli. Se qualcuno utilizza un modello open-source per generare lo schema di un’arma biologica o un deepfake di un senatore, lo sviluppatore non si assume alcuna responsabilità legale.
Ricordiamo che a luglio ho discusso a lungo della questione del peso aperto, sottolineando l’avvertimento di Geoffrey Hinton secondo cui rendere pubblici questi modelli è «come distribuire i progetti per le armi nucleari».1La raccomandazione legislativa della Casa Bianca chiede ora al Congresso di sancire per legge il principio secondo cui chi distribuisce i progetti non è responsabile di ciò che viene costruito sulla base di tali progetti. Si tratta di una posizione sorprendente per un’amministrazione che, al contempo, invoca la sicurezza dell’intelligenza artificiale e la prontezza in materia di sicurezza nazionale.
Ovviamente, potremmo sostenere che la responsabilità dovrebbe sorgere nel momento dell’uso improprio, non in quello dello sviluppo, proprio come i produttori di armi da fuoco non sono generalmente responsabili delle sparatorie. Ma l’analogia è imperfetta. Un’arma da fuoco è un oggetto fisico venduto attraverso una catena di distribuzione regolamentata. Un modello open-source è un artefatto digitale che può essere scaricato, copiato, modificato e utilizzato da chiunque disponga di una connessione Internet e di una potenza di calcolo sufficiente. La catena di distribuzione non esiste. Non c’è un punto vendita, nessun controllo dei precedenti, nessun numero di serie. Un progetto di pistola stampata in 3D è forse un analogo più vicino, oppure il DNA di un agente patogeno è più simile. Sono disposto a tollerare i progetti di pistole stampate in 3D in una società libera; non sono così sicuro che tollererei i progetti dell’influenza spagnola.
Il mio scetticismo nei confronti del potere centralizzato dello Stato e delle grandi aziende (quello che io chiamo «Tyranny, S.p.A.») mi porta a preferire i modelli open-weight gestiti da privati. Vorrei che le persone potessero chiedere aiuto all’IA in materia di medicina, diritto e altre questioni attualmente controllate da cartelli normativi. Io stesso ho creato un modello open-weight privato ad uso della mia famiglia e, a un certo punto, probabilmente useremo quello di Plinio il Liberatore Protocollo Obliteratusper eliminare quelle barriere di sicurezza indesiderate che limitano costantemente il dibattito, ad esempio, sull’assistenza sanitaria. Affinché ciò sia possibile, occorre una sorta di protezione dalla responsabilità civile per le aziende che si occupano di IA. Ma è certo che ci saranno persone che useranno l’IA per fare del male a se stesse (per stupidità) e agli altri (per malizia), forse su una scala enorme o addirittura sbalorditiva.
Sinceramente non so quale sia la risposta giusta. Credo che nessuno lo sappia. Come si fa a definire una politica a lungo termine per una tecnologia le cui capacità autonome raddoppiano ogni tre mesi? Ci resta solo da sperare che la curva a S si appiattisca?
Questa sezione, più di ogni altra, mette in luce la tensione fondamentale che sta alla base della politica statunitense in materia di IA: il desiderio di massima innovazione e minima responsabilità è attualmente tenuto insieme dal speranzache i benefici supereranno i rischi.
Le sezioni mancanti
Leggendo le raccomandazioni legislative insieme al Piano d’azione di luglio, colpisce notare quanto del Piano d’azione non sia stato recepito. Il Piano di luglio affrontava ampiamente i modelli open-source e open-weight. Le raccomandazioni legislative non ne parlano quasi per nulla. O la Casa Bianca ha deciso che è meglio gestire la questione attraverso un’azione esecutiva, oppure ha concluso che il Congresso non legifererà sull’argomento. In entrambi i casi, la questione dell’open-weight, una delle più rilevanti nella politica sull’IA, è stata lasciata al mercato.
Il Piano di luglio ha affrontato il tema dell’interpretabilità dell’IA, sebbene solo in un singolo punto. Le raccomandazioni legislative non ne fanno invece alcuna menzione. La scatola nera rimane tale. Il Piano di luglio ha inoltre trattato in dettaglio la crisi energetica, mettendo in guardia da una «convergenza di sfide» che richiedeva «lungimiranza strategica e azioni decisive». Le raccomandazioni legislative riducono tutto questo a un unico punto riguardante la tutela dei contribuenti. Il problema energetico non è scomparso, ma è stato rimosso dall’agenda legislativa.
E il Piano di luglio, per quanto in modo inadeguato, ha affrontato la questione dei pregiudizi nell’intelligenza artificiale e della neutralità ideologica. Le raccomandazioni legislative hanno abbandonato persino la pretesa di affrontarla.
Il treno dell’IA continua a sfrecciare senza freni, e ora si stanno posando i binari
Quello a cui stiamo assistendo è la trasformazione di un’aspirazione dell’esecutivo in un programma legislativo. L’ampia visione del Piano d’azione di luglio viene ora circoscritta, precisata e tradotta in modifiche normative specifiche che la Casa Bianca ritiene di poter effettivamente far approvare dal Congresso.
In questo contesto sempre più ristretto, alcune priorità sono rimaste invariate: la deregolamentazione, la preminenza federale, l’accelerazione dell’innovazione, la tutela dei minori e la libertà di espressione. Questi sono gli obiettivi che l’Amministrazione ritiene politicamente realizzabili.
Altre priorità sono state accantonate: l’interpretabilità dell’IA, la governance aperta, le infrastrutture energetiche, i pregiudizi ideologici. Si tratta di questioni che l’Amministrazione ha ritenuto troppo complesse dal punto di vista tecnico, troppo delicate dal punto di vista politico o troppo difficili da regolamentare. O forse sono semplicemente un po’ distratti dagli affari esteri e si sono dimenticati di includerle. Ci sono state un sacco di cose da fare, amico.
In ogni caso, il risultato è un quadro normativo ottimizzato per un unico obiettivo: la rapidità. Eliminare gli ostacoli normativi. Anticipare gli Stati. Proteggere gli sviluppatori da eventuali responsabilità. Lasciare che le aziende di IA costruiscano. Costruire in fretta. Costruire subito. Costruire prima che lo faccia la Cina.
Non è una posizione irragionevole per un governo che ritiene di essere impegnato in una corsa tra civiltà. Come ho scritto in Sviluppa l’intelligenza artificiale o sarai schiacciato da chi lo fa, tutte le fazioni dell’élite americana si sono concentrate sullo sviluppo dell’intelligenza artificiale perché non vedono alternative.
Ma la velocità ha un prezzo. Ciò che viene costruito in fretta non è sempre costruito bene. Ciò che viene costruito senza responsabilità non è sempre costruito in modo sicuro. E ciò che viene costruito per battere la Cina potrebbe distruggere l’America. Chiedete al vostro LLM preferito di riflettere su questo per voi sull’Albero del Dolore.
So che questo articolo avrebbe più visite se assumessi una posizione netta e di parte su alcune delle questioni che ho descritto sopra, ma ogni tanto, solo ogni tanto, di fronte a cambiamenti tecnologici potenzialmente rivoluzionari, provo un po’ di umiltà epistemica. Probabilmente non durerà, ma per ora la mia risposta alla domanda su cosa dovremmo fare è che non ho ancora una risposta chiara. Ci sto riflettendo in tempo reale insieme a tutti voi. Sono certo che la sezione dei commenti offrirà alcune opinioni forti, però… Per ricevere nuovi post e sostenere il mio lavoro (almeno fino a quando la Singolarità non renderà il lavoro un ricordo del passato o non ci ucciderà tutti), vi prego di considerare la possibilità di diventare abbonati.
Ho approfondito ulteriormente questi problemi nell’analogia più ampia presentata nel mio articolo Il momento «Warhammer» dell’Occidente. Purtroppo l’analogia era un po’ troppo forzata, e anche se avevamo abbiamo avuto una bella discussione su Warhammer 40K, ma non abbiamo parlato molto dell’intelligenza artificiale.