AI: iniziative giuridiche e profonde riflessioni
In vista del proliferare degli impieghi dell’intelligenza artificiale (AI) e dell’abilità dell’AI di agire autonomamente, anche in modi imprevedibili, il crescente interesse negli aspetti etici e legali dell’AI è sintomatico.
Sembra che l’intelligenza artificiale abbia un grosso potenziale di apportare cambiamenti dirompenti alle strutture sociali ed ai sistemi giuridici, dal momento che gli attuali ordinamenti giuridici evidenziano difficoltà nel fronteggiare la crescente opacità e lo sviluppo delle funzioni di auto-apprendimento di queste “macchine”, nonché garantirne controllo ed affidabilità.
Il tasso di assorbimento commerciale delle tecnologie c.d. AI-based, così come lo sviluppo tecnologico sottostante, influenzerà sensibilmente i processi di adattamento degli attuali legal framework, in quanto la realizzazione di tecnologie AI-based più potenti potrebbe comportare cambi di paradigma assai drastici.
Considerata la prevedibile diffusione su scala globale dell’AI, è legittimo/necessario porsi domande su come questa costellazione di tecnologie dovrebbe essere definita, classificata e tradotta in termini giuridici.
LE SFIDE LEGALI
Mano a mano che i sistemi di intelligenza artificiale saranno adoperati in contesti più comuni e consequenziali, verranno presto adottati anche in ambito applicativo decisionale in relazione alla gestione di situazioni di sicurezza critiche (come supporto alle decisioni cliniche o per la guida autonoma).
Si assiste pertanto ad una crescente attenzione su come, se ed in che misura debbano essere regolati.
In qualità di tecnologia trasformativa caratterizzata da una elevata complessità, imprevedibilità ed autonomia nelle sue capacità decisionali e di apprendimento, l’IA ha il potenziale di sfidare le nozioni tradizionali di personalità giuridica, di capacità d’agire e di responsabilità.
L’introduzione di sistemi IA che si auto-regolano e che possono operare indipendentemente dai propri creatori o operatori, dotati di abilità di adattamento e di apprendimento che permettono loro di imparare dalle esperienze e dalle interazioni con l’ambiente in maniera univoca e imprevedibile, potrebbe significare un cambiamento fondamentale nei principi base del diritto.
Non per ultimo è da considerare che, nel contemperamento tra le esigenze di sviluppo e la tutela della salute, il diritto utilizza regole preventive e regole risarcitorie per limitare profili di dannosità inevitabili e stabilire forme ristorative dei pregiudizi subiti; anche per l’AI sarà pertanto necessario rispettare i criteri di prevedibilità e l’obbligo di risarcimento dei danno arrecato a persone e cose.
Attualmente, i sistemi legali devono fronteggiare una serie di sfide associate all’intelligenza artificiale mai viste prima e devono cercare di impedire le distorsioni algoritmiche, di salvaguardare il controllo dell’uomo sulle attività dei sistemi automatizzati di intelligenza artificiale e rendere questi sistemi intelligenti affidabili.
Tuttavia vi sono molte domande che dobbiamo porci in merito al ruolo che la legge dovrebbe ricoprire per affrontare questa nuova sfida tecnologica sempre più in espansione.
DEFINIRE L’AI
Definire l’oggetto preciso di un regolamento riguardante l’ambito dinamico della tecnologia è già un’impresa.
Dato che quella dell’AI è ancora una nozione aperta, che si riferisce a un range molto ampio di prodotti e applicazioni, non c’è un accordo transnazionale su una definizione condivisa, né a livello tecnico né a livello politico/legale.
Dal momento che non c’è un consenso legale e politico su cosa sia l’intelligenza artificiale, in Europa e nel mondo è emersa una pluralità di definizioni che sono o troppo inclusive o troppo settoriali.
Questa visione concettuale frammentata impedisce lo sviluppo immediato di una lex robotica e potrebbe rendere vani tutti gli sforzi volti a creare una nomenclatura legale comune, che è funzionale alla redazione, adozione ed effettiva implementazione di norme legalmente vincolanti.
Alternativamente, sarebbe più plausibile una definizione ampia e neutrale dal punto di vista tecnologico, basata sul rispetto di una varietà di criteri strutturali, incluso il livello di autonomia e la funzione.
Se non esiste uno schema per quanto riguarda le definizioni da adottare che possa comprendere tutti i possibili usi e applicazioni di questa tecnologia, allora potrebbe risultare necessaria l’introduzione di strumenti normativi flessibili, volti a risolvere il problema del gap sul pacing, ossia del ritmo di adattamento delle leggi alle mutazioni tecnologiche in continua evoluzione, che arrancano nel mantenere il passo con gli sviluppi tecnologici ultra-rapidi.
Il problema dell’ambiguità nelle definizioni è strettamente collegato al problema della classificazione legale dell’IA e alla categorizzazione delle sue varie applicazioni.
Bisogna approcciarsi ai sistemi e ai prodotti IA secondo le categorie tradizionali o stiamo assistendo alla creazione graduale di un modo completamente nuovo di pensare in termini legali e critici che può portare al passaggio dalla nozione tradizionale di “codice” (di programmazione) come legge ad una nuova concettualizzazione della legge come “codice”?
Ulteriori domande sorgono in merito al fatto se sia necessario garantire all’AI anche una personalità legale.
Lo sviluppo della nozione di “personalità robotica” per i robot intelligenti e l’attribuzione della personalità legale all’AI potrebbe rivelarsi vantaggioso per ristabilire il nesso di causalità e limitare la responsabilità del proprietario.
Al tempo stesso, la creazione di questa fictio iuris (finzione legale) non sembra soddisfare i criteri tradizionali di personalità giuridica ed è basata su ciò che molti esperti considerano come una sopravvalutazione delle attuali capacità anche dei robot più avanzati, un’interpretazione superficiale delle capacità di imprevedibilità e di auto-apprendimento, una percezione dei robot distorta dalla fantascienza, dagli annunci eclatanti della stampa e dal battage pubblicitario.
AFFIDABILITÀ
La complessità dei modelli di AI combinati con l’uso di diverse forme di distorsioni automatizzate e algoritmiche solleva questioni di trasparenza e responsabilità dei sistemi di apprendimento automatico e di intelligenza artificiale.
Quindi, una preoccupazione legale molto importante riguarda la necessità di correttezza algoritmica, trasparenza e responsabilità nel contesto dell’intelligenza artificiale.
La tutela dei segreti industriali legati agli sviluppatori di algoritmi e meccanismi di data processing potrebbe impedire un controllo aperto e trasparente sulle attività di raccolta, utilizzo e trattamento di dati personali.
La trasparenza posta in termini di divulgazione del codice algoritmico, non può garantire né la verifica del “se” un algoritmo sia stato usato all’interno di un processo decisionale o meno, né tantomeno se questo abbia funzionato così come inizialmente programmato a fare o meno.
Solo così, l’obbligo di rendicontazione potrebbe essere assolto, per favorire l’esame delle correlazioni tra gli input e gli output degli algoritmi, le determinazioni sottostanti, nonché per spiegare in che modo i datasets sono stati formati, addestrati ed implementati.
L’impiego del “diritto ad una spiegazione” delle decisioni algoritmiche consentirebbe:
- agli utenti di ricevere chiarificazioni sul modo in cui una decisione loro riguardante sia stata assunta con l’ausilio dell’intelligenza artificiale;
- la comprensione del valore dei dati prodotti nel quadro di un sistema decisionale di un algoritmo guidato dall’AI;
- una adeguata informazione sulle procedure di conservazione/distruzione (così come su termini e condizioni) dei processi di consenso informato (come richiesti a livello normativo, vedasi GDPR).
L’implementazione di un diritto di tal fatta portata potrebbe far luce sul funzionamento dei sistemi AI, unitamente all’ auditing dei codici sorgente, introducendo requisiti rigidi per la trasparenza e la responsabilità.
Si noti come il requisito, in virtù del quale i responsabili del trattamento debbano fornire “informazioni significative sulla logica coinvolta” agli interessati (data subject) in un processo decisionale automatizzato, sia stato recentemente introdotto dal Regolamento Europeo sulla protezione dei dati (c.d. GDPR).
Divulgare a posteriori il ragionamento e le maggiori assunzioni sottostanti ad un processo decisionale basato sull’IA è un problema legale che trascende diversi settori dell’economia digitale.
Deve essere sempre possibile ridurre i calcoli del sistema IA ad una forma che sia comprensibile agli umani e dotare i robot di una “scatola nera” in grado di registrare dati su ogni transazione portata avanti dalla macchina, includendo la logica che ha contribuito alle sue decisioni.
In altre parole, un’attenzione legale particolare dovrebbe essere data non solo al bisogno di bilanciare la ratio legis e i contenuti precettivi –spesso antitetici- di GDPR e Direttiva Trade Secrets, ma anche a fare della alfabetizzazione algoritmica un prerequisito di qualunque tentativo normativo volto a controllare il processo decisionale algoritmico che potrebbe portare e/o comprendere discriminazione sociale o minare alla protezione dei diritti umani fondamentali.
Migliorare l’accessibilità e la leggibilità delle procedure di trattamento dei dati aprirà la strada anche ad una migliore comprensione del tipo di dati che sono stati elaborati, a chi appartengano (titolarità), come i dati siano stati raccolti e diffusi, nonché lo scopo per i quali i dati sono stati analizzati.
RESPONSABILITÀ
La domanda sul come assicurare che i sistemi AI siano trasparenti e responsabili delle loro operazioni è strettamente collegata al dibattito sulla distribuzione delle responsabilità nel contesto dell’AI e sulla loro allocazione più efficiente in termini di analisi economica del diritto: ovverosia di quali siano le scelte di politica del diritto più idonee ad assicurare una sopportazione razionale dei costi sociali-ambientali connessi alla diffusione delle tecnologie AI.
Il carattere autonomo e imprevedibile del funzionamento dei sistemi AI potrebbe portare a domande sul nesso di causalità, sulle circostanze impreviste e sull’attribuzione confusa delle responsabilità.
Chi verrà ritenuto responsabile laddove un’applicazione AI causasse un danno fisico o morale? Chi sarebbe ritenuto responsabile se un sistema AI proponesse un piano che si rivela dannoso, il produttore o gli attori che si ritrovano ad attuare quegli algoritmi?
In ogni caso, sarà possibile per gli sviluppatori di AI preservare e proteggere il diritto alla privacy ed ottenere un consenso chiaro, non ambiguo e ben informato, specialmente in ragione del collocamento delle sue applicazioni nelle sfere tradizionalmente più protette, intime e sensibili? Può un algoritmo essere citato per malpractice (imperizia)?
Dato il rapido sviluppo di alcune strutture autonome e cognitive, il civil law dovrà trattare questa tecnologia in modo diverso, financo distaccandosi dalle teorie tradizionali della responsabilità, includendo la responsabilità da prodotto, i modelli di responsabilità per colpa e di responsabilità oggettiva.
Esiste tuttavia un bisogno di sviluppare un regime di responsabilità civile proporzionato, in grado di assicurare una chiara suddivisione delle responsabilità tra gli ideatori, i produttori, i fornitori del servizio e gli utenti finali.
La risoluzione del Parlamento Europeo del 16 Febbraio 2017 con i suggerimenti alla Commissione sulle “Civil law rules on robotics” ha proposto -tra le altre cose- l’istituzione di uno schema di assicurazione obbligatoria, di un fondo di compensazione e di un registro dell’Unione.
Ha inoltre suggerito la creazione di uno status legale specifico per i robot nel lungo termine, così che al limite i robot autonomi più sofisticati possano avere lo status di persone elettroniche responsabili per riparare il pregiudizio cagionato e possibilmente applicare personalità elettronica ai casi in cui i robot prendono decisioni autonome o altrimenti interagiscono con terze parti in modo indipendente.
PROTEZIONE DEI DATI E PRIVACY
L’intelligenza artificiale richiede accesso a informazioni più complete, in molti casi, dati sensibili o protetti includendo dati su razza, etnia, genere e altre caratteristiche sensibili.
Problemi legali emergono per quanto riguarda il potere esplorativo dell’AI, il volume dei dati richiesti per sviluppare efficientemente gli algoritmi e i percorsi di apprendimento automatici, così come anche per le tendenze di concentrazione di mercato nel campo dell’AI.
L’abilità dell’AI di analizzare i dati e identificare gli utenti potrebbe infatti aumentare la sensibilità dei dati che era precedentemente considerata sufficientemente anonima.
Malgrado lo sviluppo graduale delle tecniche di anonimizzazione che permettono di preservare la riservatezza dei dati, l’AI pone una crescente minaccia al diritto degli esseri umani di formare le loro opinioni e di prendere decisioni autonome.
Un’attenzione particolare dovrebbe essere posta sulla capacità dell’AI di utilizzare dati personali e non, nei confronti di ogni tipo di persona, di identificare le vulnerabilità delle persone e sfruttare una conoscenza accurata e predittiva.
Ogni iniziativa che incoraggia un flusso aperto e libero di dati dovrebbe prendere in considerazione il bisogno legale di conformarsi ai principi di minimizzazione dei dati, il diritto di ottenere la spiegazione di una decisione basata sull’elaborazione automatica, i principi della privacy fin dalla fase di progettazione (privacy by design e by default) e su impostazioni predefinite e i principi di proporzionalità, necessità, minimizzazione dei dati, limitazione dello scopo.
SICUREZZA/PROTEZIONE
I veicoli autonomi e gli altri sistemi IA possono aprire la strada a violazioni della sicurezza, a cyber-attacchi o ad un abuso dei dati personali, in particolare quando questo include la registrazione e l’elaborazione di un gran numero di dati.
Rischi di sicurezza significanti e vulnerabilità sono associate alla possibilità che le applicazioni IA che sono integrate nel corpo umano vengano violate al punto da mettere a rischio la salute, le libertà cognitive o persino l’integrità mentale e la vita umana.
Un abuso di IA può non solo minacciare la sicurezza digitale e la sicurezza fisica e pubblica, ma anche porre un rischio per la democrazia tramite campagne di disinformazione e l’hackeraggio di elezioni.
I prodotti IA dovrebbero essere soggetti alle norme sulla sicurezza dei prodotti e alle norme sulla protezione del consumatore che assicurano, laddove appropriate, gli standard minimi di sicurezza e regolano il rischio di incidenti che resultano dall’interazione con gli umani.
A questo proposito, le regole sulla cyber-sicurezza e le garanzie giuridiche sono necessarie per garantire che i dati non siano dolosamente danneggiati o usati in modo improprio, eventi che potrebbero minare all’industria e alla fiducia dei consumatori nell’IA.
SFIDE SOCIO-ETICHE
Oltre alle sfide legali, l’AI pone diverse considerazioni etiche.
L’uso dell’intelligenza artificiale per monitorare o persino prevedere il comportamento umano rischia la stigmatizzazione, di rafforzare gli stereotipi esistenti, la segregazione sociale e culturale e l’esclusione, sovvertendo la scelta individuale e le eque opportunità.
Il potenziale dell’AI per l’empowerment, i rischi associati alle “filter bubbles” o all’uso delle metodologie di punteggio sociale attraverso l’uso dell’AI e l’accessibilità e la fruizione dei servizi AI, sono collegati ai problemi sulla sicurezza umana, salute e incolumità, libertà, privacy, integrità, dignità, autodeterminazione e non discriminazione.
L’uso crescente dei processi decisionali algoritmici basati sull’AI in ambiti che spaziano trasversalmente in tutti i luoghi dell’agire sociale, dai servizi finanziari e bancari fino alla gestione della giustizia penale, senza che sia contemplato il coinvolgimento della valutazione umana o il giusto processo, può rafforzare gli stereotipi sociali dannosi contro gruppi di minoranza e amplificare i pregiudizi razziali e di genere.
Questa pratica è stata criticata da diversi attori istituzionali provenienti da tutta Europa, come il Consiglio d’Europa, il Supervisore Europeo sulla protezione dei dati e l’Agenzia dell’Unione Europea per i diritti fondamentali.
L’avvento di un’AI forte, che penetra le categorie legali e fa scattare una nuova considerazione di concetti legali tradizionali come l’autonomia e la privacy, solleva questioni sulla capacità della legge europea di raggiungere un equilibrio tra la tecnologia come oggetto di regolamentazione e la tecnologia come un’agenda regolatrice.
I grandi sviluppi nel campo dell’AI fanno anche emergere il bisogno di riconoscere che i codici di programmazione codificano valori che non possono essere trattati come mera questione di ingegneria.
I problemi etici associati al potere sociale degli algoritmi accompagnano domande sul divario digitale intergenerazionale e influenzano il godimento del diritto alla vita, il diritto a un giusto processo, il diritto alla privacy, la libertà di espressione e i diritti dei lavoratori.
Ci sono problemi ingenti dal punto di vista etico, psicologico e legale sull’autonomia degli smart robot e il loro impatto sulla relazione dottore-paziente nelle applicazioni del sistema sanitario, che non sono state ancora propriamente indirizzati a livello europeo, in particolare per quanto riguarda la protezione dei dati personali dei pazienti, la responsabilità, e le nuove relazioni economiche e di impiego che ne derivano.
Una struttura rigida ed efficiente che guida nello sviluppo, nella progettazione, nella produzione e nell’uso di algoritmi è tuttavia necessario per completare l’acquis nazionale esistente e dell’Unione.
La struttura etica che fa da guida dovrebbe essere basata sui principi e sui valori evidenziati dalla Carta dei Diritti Fondamentali, come la dignità umana, l’uguaglianza, la giustizia e l’equità, non-discriminazione, consenso informato, protezione dei dati privati e della vita familiare, così come altri principi sottostanti e valori della legge Europea, come la non stigmatizzazione, la trasparenza, l’autonomia, la responsabilità individuale e la responsabilità sociale, nonché sulle pratiche e sui codici etici attuali.
INIZIATIVE A LIVELLO EUROPEO
La diffusione dell’intelligenza artificiale è avvenuta in un contesto di vuoto normativo. Con l’eccezione dello sviluppo di codici etici di condotta e linee guida, sono state poche le iniziative intraprese volte a concepire l’AI in una maniera olistica e a livello sistemico.
Nessuna regola orizzontale o decisione giudiziaria è stata adottata per indirizzare specificatamente le sfide uniche sollevate da AI.
Il 10 aprile 2018, è stata firmata una Dichiarazione di Cooperazione sull’AI da parte di 25 paesi d’accordo sul “lavorare insieme sui problemi più importanti sollevati dall’AI; dall’assicurare la competitività dell’Europa nella ricerca e impiego dell’AI, all’avere a che fare con le questioni sociali, economiche, etiche e legali”.
A febbraio 2017, il Parlamento Europeo ha invitato la Commissione Europea a valutare l’impatto dell’intelligenza artificiale e a formulare delle raccomandazioni sulle leggi del civil law in merito alla robotica.
In più, il Parlamento ha adottato una relazione di iniziativa su una “politica industriale europea comprensiva sull’intelligenza artificiale e sulla robotica” nel febbraio 2019.
Il Comitato Economico e Sociale Europeo ha elaborato un parere sull’AI nel maggio 2017.
Allo stesso tempo, il Consiglio Europeo di Ottobre 2017 ha invitato la Commissione a presentare un “Approccio Europeo all’AI”.
La Commissione Europea ha evidenziato l’importanza di ricoprire una posizione preminente nello sviluppo delle tecnologie AI, nelle piattaforme e nelle applicazioni, nella sua revisione di medio termine della strategia del mercato unico digitale pubblicata nel maggio 2017.
Infine, la Commissione Europea ha adottato una comunicazione su “l’Intelligenza Artificiale per l’Europa” il 25 maggio 2018, proponendo un approccio Europeo che beneficiasse delle opportunità offerte dall’AI e indirizzasse le nuove sfide che l’AI pone.
La Commissione ha proposto un approccio che si articola su tre livelli: aumentare gli investimenti pubblici e privati; prepararsi per i cambiamenti socioeconomici apportati dall’AI; e assicurare un quadro normativo ed etico appropriato.
Con riferimento al quadro normativo ed etico, la Commissione dovrebbe:
- proporre delle linee guida etiche;
- emanare un documento che faccia luce sull’interpretazione della “Direttiva sulla responsabilità per danno da prodotti difettosi” entro la metà del 2019;
- intraprendere tutti gli studi e le ricerche e formulare delle risposte politiche alle sfide poste dall’AI per quanto riguarda la responsabilità, la sicurezza, l’Internet delle Cose (IoT), la robotica, la consapevolezza algoritmica, la protezione dei dati e del consumatore.
Nel giugno 2018, la Commissione ha scelto 52 esperti per la creazione di un nuovo gruppo altamente specializzato sull’Intelligenza Artificiale (AI HLEG), composto essenzialmente da esponenti dell’accademia e dell’industria, che mira a supportare l’attuazione della strategia Europea sull’AI.
Nel dicembre 2018, la Commissione ha anche pubblicato un piano coordinato sull’intelligenza artificiale, che mira a coordinare gli approcci degli Stati Membri, nel rispetto dei loro obiettivi nel campo dell’AI, dei programmi di apprendimento e di formazione, i meccanismi di finanziamento disponibili ma anche in relazione alla revisione della legislazione esistente e di una guida etica.
Il Consiglio dei Ministri ha adottato conclusioni in relazione al piano coordinato sullo sviluppo e uso de “l’Intelligenza Artificiale made in Europe” nel febbraio 2019.
In termini di regolamento specifico e completo sull’AI, il regolamento europeo sugli algoritmi nei mercati finanziari risulta il più avanzato.
Dal 3 gennaio 2018, l’articolo 26 della MiFID 2 (la direttiva relativa ai mercati degli strumenti finanziari) richiede alle società di investimento di includere dettagli sugli algoritmi informatici responsabili delle decisioni di investimento e dell’attuazione delle transazioni.
Il 12 febbraio 2019 è stata adottata una mozione per il parlamento europeo in sessione plenaria, conseguente all’adozione di una relazione di iniziativa su “Una politica industriale europea comprensiva sull’intelligenza artificiale e sulla robotica”.
CONCLUSIONI
Lo sviluppo dell’AI nel vuoto normativo ed etico ha comunque fatto scattare molti dibattiti sul bisogno di un suo controllo a livello legale e di una supervisione a livello etico.
Sembra che gli algoritmi basati su AI che elaborano ragionamenti automatici, controllino sempre più aspetti delle nostre vite, attuando un processo decisionale e istituzionale sull’analisi dei big data, rendendo questa tecnologia un influente punto di riferimento.
L’impatto delle tecnologie AI esistenti sul godimento dei diritti umani, come la libertà d’espressione, la libertà di assemblea e di associazione, il diritto alla privacy, il diritto al lavoro, il diritto alla non-discriminazione e l’equa protezione della legge, necessita di essere esaminata attentamente e qualificata, con il potenziale di aggravare le ineguaglianze e aumentare il divario digitale.
In vista del potenziale dell’intelligenza artificiale di agire in maniera autonoma, la sua stessa complessità e opacità, così come l’incertezza che ruota intorno al suo operare, rende necessaria una risposta normativa volta a impedire che l’applicazione in continua espansione dell’AI provochi un danno sociale all’interno di un range molto vasto di individui e gruppi sociali.
Tale risposta dovrebbe ricomprendere l’obbligo per gli sviluppatori degli algoritmi AI di rispettare pienamente i diritti umani e le libertà civili di tutti gli utenti, preservando un controllo umano ininterrotto sui sistemi AI, indirizzare gli effetti della connessione emotiva e l’attaccamento tra umani e robot e di sviluppare standard comuni contro l’autorità giudiziaria che faccia sì che l’uso dell’AI venga controllato.
Si dovrebbe anche porre l’attenzione sull’allocazione delle responsabilità, sui diritti e doveri e si dovrebbe impedire la riduzione del processo di governance legale a una mera ottimizzazione tecnica delle procedure di apprendimento automatico e dei processi decisionali algoritmici.
All’interno di questo quadro, dovranno essere introdotti nuovi diritti collettivi riguardanti i dati che dovranno salvaguardare l’abilità di ognuno di sottrarsi al processo di profiling, il diritto di appello e il diritto ad una spiegazione nei processi decisionali basati su AI.
I legislatori devono assicurare che le organizzazioni che impiegano e utilizzano questi sistemi rimangano legalmente responsabili per ogni danno causato e sviluppino protocolli sul consenso informato sostenibile e proporzionato. Anche se nessuna legge può decifrare l’intera complessità della tecnologia per com’è, si basti prevedere i suoi futuri sviluppi.
L’UE potrebbe impiegare gli strumenti di soft-law (come le valutazioni normative sulla tecnologia e i controlli etici in tempo reale) per anticipare e formare i trend tecnologici e assicurare che le tecnologie dirompenti vengano impiegate in modo che sia conforme all’acquis etico europeo.
Anche se alcuni eventi tecnologici “black swan” rimarranno impossibili da predire, un approccio etico dovrebbe assicurare che la politica regolatoria si adatti proattivamente ad un ecosistema in evoluzione e influenzare il progetto direzionale delle tecnologie emergenti.
Dato che i sistemi di intelligenza artificiale sono oggetti instabili sotto lo scrutinio legale ed etico, le valutazioni di impatto algoritmico e i controlli potrebbero diventare un requisito legale.
Una risoluzione del Parlamento Europeo del 2017 sulle norme del civil law sulla robotica – che comprende un “codice di condotta etica per gli ingegneri di robotica”, un “codice di ricerca per i comitati etici”, una “licenza per i produttori” e una “licenza per gli utenti”, può servire come modello di governance per un processo dettagliato di architettura etica della tecnologia nel campo dell’AI.
La carta sulla robotica contenuta nella risoluzione, combina un approccio ex ante a partire dalla progettazione con una inquadratura riflessiva e un’analisi meta-etica del processo di governance impiegato per il radicamento dell’etica nelle strutture per lo sviluppo di questa tecnologia dirompente.
Questa iniziativa legislativa dovrebbe essere parte di un cambio di paradigma più ampio, che includa l’introduzione di nuovi principi etici, come il diritto a non essere misurato, collegato ai possibili abusi dell’AI e dell’internet delle cose e il diritto al contatto umano significativo, riguardante i possibili abusi dei robot di cura.
Data la difficoltà e la complessità di prevedere la performance di molti sistemi AI e le loro interazioni, testare nuove forme di responsabilità e affidabilità tramite nuovi metodi di sperimentazione legale è più che necessario.
I legislatori europei hanno bisogno di valutare attentamente se ci sia il bisogno di uno specifico regolamento collegato ai processi decisionali permessi dall’ AI e se un diritto di appello e di ricorso quando l’intelligenza artificiale è utilizzata per le decisioni riguardanti gli individui debba essere introdotta.
Il controllo etico e le valutazioni etiche preventive devono diventare aspetti essenziali di tutti gli sforzi volti a controllare i sistemi di IA con autonomia integrata e capacità di auto-apprendimento.
Il lavoro del Gruppo di esperti della Commissione Europea sull’IA è degno di essere menzionato a questo punto: la prima bozza su “Le linee guida etiche per un AI Affidabile” enfatizza il bisogno di assicurare che l’intelligenza artificiale si focalizzi sull’uomo, che sia sviluppata, impiegata e usata con scopo etico e raccomandi l’incorporazione di requisiti specifici per l’affidabilità dell’IA dalla primissima fase di progettazione (affidabilità, data governance, progetto per tutti, governance dell’IA autonoma, non-discriminazione, rispetto per l’autonomia umana, rispetto per la privacy, robustezza, sicurezza, trasparenza), ed evidenzia l’importanza di controllare i sistemi IA, particolarmente nei contesti critici, così come assicurare un processo specifico per accertare la responsabilità.
La risoluzione EP su una politica industriale Europea Comprensiva sull’intelligenza artificiale e la robotica recentemente adottata, ha incentrato l’attenzione del Parlamento Europeo sul bisogno di istituire un quadro guida etico e sulla convinzione politica che l’Europa dovrebbe assumere il ruolo di guida nello scenario globale impiegando solo IA eticamente integrate.
La risoluzione invita gli Stati Membri a:
- istituire degli enti che monitorino e sorveglino sui risvolti etici dell’AI;
- incoraggiare le industrie che sviluppano AI nel creare dei comitati etici e redigere delle linee guida etiche per gli sviluppatori;
- adottare un approccio etico sin dalla progettazione, il quale faciliterà l’integrazione dei valori come la trasparenza nello sviluppo di AI.
Tutte queste considerazioni dovrebbero costituire elementi di un nuovo contratto sociale Europeo sull’innovazione responsabile che potrebbe porre questo approccio de “l’etica sin dalla progettazione” all’epicentro del ciclo di sviluppo della tecnologia.
Questo contratto dovrebbe rendere pienamente operativi gli strumenti anticipatori dell’ etica tecnologica, nonché a definirne ruolo e limitazioni, come fonte di autorità epistemica che aspira a rappresentare integralmente le preoccupazioni della società.