Con l’Executive Order del 30 marzo 2023, il Presidente degli Stati Uniti, Joe Biden, ha predisposto indirizzi e misure a garanzia di un uso sicuro ed equo dei sistemi di intelligenza artificiale. I temi affrontati dall’Esecutivo sono imponenti e ricoprono molteplici ambiti di intervento.

Il primo grande blocco di azioni del Governo statunitense avrà ad oggetto la sicurezza dei sistemi di intelligenza artificiale (Sezione 4). Sotto il profilo della sicurezza, infatti, l’intelligenza artificiale (o, meglio, i sistemi digitali che ne si basano su di essa) si presenta essenzialmente come “prodotto”, ossia come bene destinato al mercato e all’uso da parte delle persone.

In particolare, i sistemi sfruttanti l’intelligenza artificiale presentano un rischio intrinseco non indifferente, legato al fatto che essi si alimentano di dati (personali e non), sicché dalla conformazione (progettazione e sviluppo) del dispositivo influenza la resa delle informazioni prodotte dall’IA stessa.

La strategia adottata dagli Stati Uniti si struttura su una duplice dimensione. Da un lato, le Istituzioni pubbliche dovranno adottare linee guida, best practices e standard (particolarmente rigorosi) per la conduzione dei test di sicurezza delle imprese produttrici e la valutazione di rischio. Particolare attenzione sarà rivolta a settori strategici e, dunque, maggiormente a rischio, quali il settore delle infrastrutture, energetico, ma anche ogni altro settore in cui è individuabile un rischio chimico, nucleare, radiologico o di cybersecurity.

Dall’altro, l’E.O. richiederà, in via generale, ad ogni impresa sviluppatrice di sistemi di IA di adeguarsi agli standard e linee guida prefissati; mentre quelle che producono i più potenti sistemi di IA dovranno, in aggiunta, comunicare al Governo ogni informazione critica emergente dai test di sicurezza.

Specifici controlli sul profilo identificativo sono, inoltre, svolti nei confronti dei rivenditori stranieri al fine di individuare potenziali rischi per la sicurezza pubblica, specie sul fronte del rischio della cybersecurity (Sezione 4.1, d)).

Le azioni sulla sicurezza dei prodotti IA si rivolgono anche al fronte del “rischio da contenuto artificiale”. Rispetto a questo tema, l’attenzione è posta sulla necessità di garantire agli utenti prodotti autentici e di cui è determinabile la provenienza. A tal fine, il Governo Federale si impegnerà a sviluppare standard e tecniche per l’autenticazione e il tracking della provenienza dei contenuti, nonché per lo svolgimento di attività di auditing e controllo degli stessi. Particolare è, inoltre, la previsione di un dovere di etichettatura dei contenuti artificiali, anche attraverso l’utilizzo di filigrane digitali (Sezione 4.5, a)).

La garanzia di un prodotto sicuro ai fini della sua immissione sul mercato e, conseguentemente, al suo uso è strettamente funzionale allo sviluppo commerciale dei sistemi stessi. La successiva Sezione 5 tratta, dunque, delle azioni per la promozione e lo sviluppo dei sistemi di IA, che viene condotta principalmente attraverso l’allocazione di fondi, percorsi formativi e informazione. Tra queste, l’E.O. pone l’attenzione sulla necessità di tutelare la proprietà intellettuale, rispetto alla quale si attendono specifici studi e raccomandazioni individuanti le principali problematiche che l’uso delle IA solleva rispetto al copyright, nonché le azioni volte a contrastarle.

Per evitare il “contraccolpo” sul profilo dell’occupazione lavorativa, lo sviluppo dei sistemi di IA nel mondo del business non può trascurare la posizione dei lavoratori. Secondo quanto disposto dalla Sezione 6, ogni azione che dovrà intraprendersi nel campo dell’IA da parte del Governo richiederà una valutazione ex ante dell’impatto della stessa sul mondo del lavoro.

A tal fine, l’E.O. richiede la redazione di un report volto a valutare sia l’impatto delle attuali e future misure normative e, conseguentemente, l’individuazione delle possibili opzioni per rafforzare il supporto offerto ai lavoratori.

La “questione sociale” connessa allo sviluppo dell’IA si estende, più in generale, ad ogni cittadino coinvolto dall’uso dei sistemi di IA. La Sezione 7 dell’E.O. tratta, dunque, della c.d. discriminazione algoritmica. Con questo termine si intende il fenomeno per cui gli algoritmi utilizzati dai sistemi di IA, ripropongono nei loro modelli di decisione automatizzata le discriminazioni presenti nella società. Si pone, dunque, la necessità di garantire che i processi decisionali bastai sul “machine learning” si svolgano nel rispetto dell’equità e dei diritti civili.

Previa l’indizione di una discussione sul tema e la formulazione di specifiche linee guida tecniche per indirizzare i controlli delle agenzie governative sul tema, l’E.O. si concentra, in particolare, sui risvolti dell’utilizzo dell’IA nel sistema di giustizia penale. Sul punto, il General Attorney dovrà redigere un report con i quale dovranno essere individuate, tra le varie, anche le aree in cui è necessario l’enforcement normativo a garanzia della privacy, dei diritti e delle libertà civili, nonché le best practices per il detto enforcement.

Altra questione toccata di fondamentale rilevanza è il tema dell’housing (diritto alla casa). L’E.O. richiede a tal fine sia l’adozione di sistemi e metodologie adeguate ad individuare e risolvere i bias automatici discriminatori. Di particolare interesse è, infine, la previsione del necessario adeguamento dei sistemi utilizzanti dati biometrici alle esigenze di inclusione dei soggetti affetti da disabilità, specie al fine di garantir loro l’accesso alle informazioni, ai sistemi di comunicazione e ai servizi di trasporto.

La Sezione 8, seppur autonoma formalmente rispetto alla precedente, ne integra di fatto la portata. Essa ha ad oggetto la protezione dei consumatori, dei pazienti, dei passeggeri e degli studenti contro il rischio di frode, discriminazione, minaccia alla privacy e instabilità finanziaria. Questi temi saranno oggetto di uno specifico piano strategico. La tutela – che verrà completata dalla redazione di linee guida – dovrà contemplare modelli di sviluppo e d’uso dei processi automatizzati, specie nel campo medico e finanziario, con particolare attenzione alla possibilità di prevedere adeguati sistemi di sorveglianza umana.

La Sezione 9 tocca il tema della tutela della privacy e dei rischi derivanti dalla raccolta di dati personali. Si prevede, in particolare, la redazione di apposite linee guida per la valutazione dell’efficacia della protezione della privacy. La tutela trova, infine, completamento sul versante ricerca e sviluppo.

In particolare, è istituito il Research Coordination Network (RCN) con il fine di promuovere lo sviluppo delle conoscenze, degli standard di sicurezza in materia di privacy e il loro coordinamento.

L’E.O. indirizza la ricerca anche a sostegno dell’uso dell’IA nelle attività governative, rispetto alla equali si pongono esigenze di coordinamento territoriale e di gestione del rischio. Il modello di gestione dell’uso e dello sviluppo dell’IA nel campo in parola è pressoché omogeneo quelli predisposti dalle Sezioni precedenti, ossia tramite la definizione di standard e linee guida per la valutazione della sicurezza, della provenienza e della non discriminatorietà dei risultati.

Le azioni previste dall’E.O. sono funzionali a rafforzare la qualità dei sistemi di IA utilizzabili all’interno del mercato e delle Istituzioni statunitensi. Certamente, la necessità di una normativa volta a imporre specifici (ed elevati) standard di tutela e garanzia dei diritti dei cittadini e dei consumatori, non solo rispetto alla loro dimensione individuale, ma anche collettiva, come società.

Proprio su quest’ultimo versante si comprende l’ultimo grande tema oggetto dell’E.O.: la promozione della leadership americana nel contesto internazionale (Sezione 11). Lo scenario internazionale, infatti, già da anni si sta muovendo a favore della definizione di regole comuni e principi di equità per un uso sicuro delle intelligenze artificiali.

Si possono citare, quali esempi, la Raccomandazione sull’etica dell’intelligenza Artificiale formulata dall’UNESCO nel 2023; come anche la proposta di regolamento (UE) che stabilisce regole armonizzate sull’intelligenza artificiale (COM(2021) 206, def., c.d. AI Act) , che si aggiunge alla già consolidata normativa in materia di trattamento dei dati personali (Reg. (UE) 2016/679, c.d. GDPR).

All’interno di questo scenario, la Presidenza americana mira a porsi in prima linea nella promozione dello sviluppo dell’IA attraverso accordi internazionali con altri Stati ed organizzazioni, volti a determinare linee e standard comuni di sicurezza e valutazione dei rischi. Il ruolo strategico statunitense è rafforzato dall’adozione di un piano di impegno globale per la promozione e lo sviluppo degli standard di IA, che dovrà includere una terminologia comune, best practices per il trattamento dei dati e sistemi di verifica e gestione dei rischi.

L’E.O. introduce, dunque, una serie di requisiti ed obblighi di conformità particolarmente pressanti per le aziende produttrici e utilizzatrici di sistemi di IA. Sul punto, come riportato dal New York Times, le imprese del settore stanno sollevando le loro preoccupazioni verso la Casa Bianca, sostenendo l’eccessività di ulteriore regolamentazione (“Biden Issues Executive Order to Create A.I. Safeguards”). Del resto, non è certamente tendenza tipica di un Paese di tradizione deregolativa e liberista come gli Stati Uniti introdurre importanti limitazioni al mercato.

Più “sollevati” sono apparsi, invece, i grandi colossi dell’informatica, c.d. Big-Tech, maggiormente preoccupati ai profili di coroporate responsibility in caso di danni da uso scorretto dell’IA dei sistemi a loro riconducibili.

Va, tuttavia, osservato che l’E.O., per la complessità delle questioni trattate, costituisce più una direttiva strategica che una vera e propria regolamentazione, essendo rimesso ad altre Istituzioni il compito di determinare puntualmente i tratti e le modalità attuative degli indirizzi adottati.

Proprio per questo (per certi aspetti, inevitabile) silenzio normativo, l’E.O. può essere interpretato più come una via per affermare innanzi alla platea internazionale la propria intenzione ad imporsi come leader strategico ed economico in materia di IA. Detto diversamente, l’adozione di un atto governativo formale inteso ad implementare la disciplina della produzione e dell’uso delle intelligenze artificiali tanto negli ambiti prettamente strategici, quanto in ogni altro campo, pare porsi come un annuncio ufficiale degli Stati Uniti ad imporsi come principale protagonista del settore: non già solo per meri fini strategici, ma anche “virtuosi”, quali l’uso etico e non discriminatorio di queste nuove tecnologie.

Concludendo, il recente E.O. del Presidente Biden appare, almeno nella sua formulazione di indirizzo, un equo compromesso tra esigenze essenziali di tutela della sicurezza e dei diritti fondamentali delle persone ed esigenze di flessibilità che l’innovazione e lo sviluppo economico delle imprese.

In breve, si prospetta per l’ordinamento americano una sfida senz’altro titanica per la delicatezza e le implicazioni che l’IA solleva (specie per una potenza economica e militare come gli USA), i cui risultati dipenderanno principalmente dalla capacità delle linee guida tecniche e degli standard di adeguatezza e sicurezza di individuare e rispondere ai problemi posti dall’IA e dalla capacità di dialogo e raccordo tra livelli governativi di controllo e mondo dell’impresa.