Le nuove guidelines UE sull’uso dell’AI nella ricerca scientifica
Grazie al suo rapido sviluppo, l’intelligenza artificiale si sta facendo largo in sempre più numerose realtà, spaziando tra le più diverse applicazioni: dall’uso ai fini ricercativi ed educativi a quello creativo di “produzione” di opere d’arte o musicali; ancora, l’I.A. può essere sfruttata per velocizzare le attività di revisione o di sintesi di testi, finanche essere sfruttata come supporto linguistico per gli stranieri.
Tra questi, un ruolo prominente è occupato dai sistemi c.d. General purpose AI, utilizzabili quali fonti dirette di sapere, come pure strumenti di “allenamento” (training) di altri dispositivi A.I.
Insomma, l’I.A. è destinata a divenire una presenza sempre più fissa e trasversale nella nostra realtà. Il che non poteva essere, dunque, ignorato dal legislatore europeo, da lungo tempo impegnato nella definizione di un complesso sistema di principi e discipline specificamente destinate alla regolazione del fenomeno, latamente conosciuto come “A.I. Act”.
Tuttavia, come si è detto, sia il progredire che le modalità applicative degli strumenti sfruttanti l’intelligenza artificiale, per loro natura, seguono tempi assai più rapidi rispetto a quelli legislativi, sicché, in siffatte fasi di sviluppo, si tende a registrare nel mondo normativo dei vuoti, che rendono spesso incerto stabilire le corrette modalità di applicazione dei nuovi strumenti digitali, specie alla luce dei non trascurabili rischi che promanano da essi.
L’esigenza di maggior certezza, nel corso degli ultimi anni diversi Enti hanno prodotto diverse linee guida applicative che, se da un lato, hanno favorito il confronto dialogico-comparatistico del sapere, dall’altro, hanno determinato la frammentazione e sovrapposizione di regole, certamente non funzionale alla creazione di maggior certezza.
Alla luce di ciò, la Commissione europea, assieme al supporto della comunità ricercatrice dei vari Stati membri, ha elaborato un documento dal titolo “Living guidelines on the responsible use of generative AI in research”, pubblicato il 20 marzo 2024, con l’obiettivo di fornire linee guida generali applicabili allo specifico ambito della ricerca.
I principi chiave delle nuove linee guida
Le nuove linee guida individuano una serie di principi e orientamenti comuni volti a garantire l’uso responsabile dell’intelligenza artificiale quando applicata nell’ambito delle attività di ricerca da parte di ricercatori, enti di ricerca ed enti finanziatori attività di ricerca.
Le linee guida, pur non vincolanti, costituiranno un importante complemento e integrazione alle discipline giuridiche europee in materia di I.A., incluso in particolar modo l’A.I. Act di prossima definitiva adozione. Specificamente, le linee guida si compongono di un set di “key principles”, elaborati sulla base di documenti e linee guida preesistenti, e di una serie di raccomandazioni, distinte a seconda dei soggetti destinatari.
I principi chiave possono essere così sintetizzati:
- Affidabilità (“Reliability”): il design, la metodologia, le analisi e l’uso delle risorse devono garantire la qualità dei risultati di ricerca, specie dando riscontro degli aspetti di verificazione e riproducibilità delle informazioni prodotte dall’I.A. applicata, nonché dei possibili rischi di bias, errori, discriminazioni.
- Onestà (“Honesty”): nel rispetto della comunità scientifica e dei principi di trasparenza, dovrà rendersi noto se è stato fatto uso di intelligenza artificiale.
- Rispetto (“Respect”): l’utilizzo dell’I.A. nella ricerca non può prescindere dal dar conto alla comunità intera (scientifica e non) delle ineliminabili limitazioni dello strumento stesso, dei suoi impatti sull’ambiente e sulla società, con particolar attenzione verso la gestione delle informazioni, la tutela della privacy, la confidenzialità dei dati, la proprietà intellettuale e la corretta citazione delle opere.
- Responsabilità (“Accountability”): i ricercatori e le relative organizzazioni sono responsabili per ogni risultato prodotto, dall’idea alla pubblicazione, fino a toccare i modelli di organizzazione, gestione, training e supervisione dell’attività, ogniqualvolta il lavoro di ricerca prevede l’utilizzo dell’I.A.
Si vedano ora le raccomandazioni rivolte, rispettivamente, ai soggetti di seguito illustrati:
Raccomandazioni per i ricercatori
I ricercatori rimangono, in via ultima, responsabili dell’integrità della propria ricerca. In particolare, i sistemi di intelligenza artificiale applicati non possono essere in alcun modo qualificati e intesi come autori o co-autori.
I risultati di ricerca, in virtù del principio di trasparenza, dovranno riferire dettagliatamente le caratteristiche e le modalità d’uso dello strumento di I.A. A titolo esemplificativo, dovranno essere indicati il nome, la versione, come è stato applicato e come il suo uso ha inciso sul processo di ricerca, i margini di riproducibilità e di solidità dei risultati.
Particolare attenzione dovrà essere prestata nel rispetto delle discipline sulla privacy, sulla confidenzialità e sulla proprietà intellettuale, specie ove le ricerche permettano la diffusione, tramite gli strumenti di I.A., di informazioni e dati sensibili o protetti. L’utilizzo delle innovative strumentazioni di intelligenza artificiale richiede, infine, un costante aggiornamento, specie in punto di valutazione degli impatti negativi dell’I.A.
Raccomandazioni per gli enti di ricerca
Enti od organizzazioni di ricerca sono chiamati a svolgere un ruolo essenzialmente di guida e controllo dell’uso responsabile dell’intelligenza artificiale, in particolare svolgendo verifiche appropriate, sorvegliando la corretta applicazione della normativa privacy e di tutela della proprietà intellettuale, ponendo l’attenzione verso il rischio di bias riprodotti dai sistemi di I.A.
Appare, dunque, di notevole interesse la raccomandazione rivolta a rendere gli enti di ricerca “promotori” dell’uso responsabile dell’I.A., specie considerando che a questi è data la possibilità, ove ritenuto necessario, di adottare proprie specifiche raccomandazioni complementari alle linee guida europee ovvero specifiche eccezioni alle stesse, che dovranno comunque essere pubblicate nel rispetto dei principi di trasparenza.
Infine, fermo l’obbligo di garantire un adeguato livello di cyber-sicurezza, questi soggetti sono chiamati a promuovere – se possibile e necessario – l’implementazione locale di “hosted GPAI” o “cloud-based GPAI”, che saranno chiamati a gestire, al fine di permettere ai propri lavoratori di accrescere i propri dati scientifici all’interno di un unico sistema o strumento.
Raccomandazioni per enti finanziatori di attività di ricerca
Al fine di garantire che i sistemi di GPAI sfruttati nelle ricerche vengano utilizzati eticamente e responsabilmente, in conformità con i principi chiave illustrati, gli enti finanziatori dovranno indirizzare il proprio supporto verso progetti che accolgono detti principi, calandoli all’interno della vigente disciplina normativa applicabile.
Va, dunque, osservato con notevole interesse la posizione di responsabilità delineata dalle linee guida per questi soggetti. Infatti, gli enti finanziatori rimango “fully responsible for the use of generative AI in their activities,in line with the accountability principle that emphasises responsibility and human oversight”. Le attività di controllo, in particolare, dovranno essere rivolte alle scelte dello strumento di I.A., nonché ai relativi standard di qualità, trasparenza, integrità, protezione dei dati, confidenzialità e tutela dei diritti I.P.
Come specificato dalle linee guida, tale dovere di controllo si tramuta infine in un dovere di coinvolgimento attivo dell’ente nel rapido processo di evoluzione del panorama delle General Purpose A.I., anche attraverso la promozione e il finanziamento di programmi educativi e di training per un uso più etico e responsabile dell’intelligenza artificiale nella ricerca scientifica.
In breve, dunque, il panorama giuridico e para-giuridico europeo si sta lentamente evolvendo, così tendando di dare una risposta al nuovo e complesso fenomeno dell’uso e integrazione dell’intelligenza artificiale nelle attività sociali.
Un primo passo è stato compiuto con le linee guida qui analizzate, limitatamente al campo della ricerca scientifica.
Un secondo e più audace, sarà quello che verrà a compiersi con la prima legge organica sull’intelligenza artificiale, l’A.I. Act, rispetto alla quale le linee guida svolgeranno un importante complemento in materia di GPAI.