0
Intelligenza Artificiale, dati ed algoritimi: una roadmap per le implicazioni sociali

Intelligenza Artificiale, dati ed algoritimi: una roadmap per le implicazioni sociali

L’espressione “ADA-based technologies” è utilizzata per indicare un’ampia gamma di tecnologie rilevanti a livello etico e sociale basate su algoritmi, dati e intelligenza artificiale (ADA).

Questi tre concetti non sono totalmente separati ma al contrario, talvolta, si sovrappongono.

La Nuffield Foundation è una fondazione benefica indipendente, volta a migliorare il benessere sociale attraverso il finanziamento di progetti di ricerca soprattutto nei settori dell’Educazione, del Welfare e della Giustizia.

La Fondazione finanzia anche programmi per studenti volti a far sviluppare le capacità dei più giovani nei metodi scientifici ed ha messo a punto un piano d’azione sulla ricerca delle implicazioni etiche e sociali delle tecnologie ADA volto a far da guida a coloro che sono coinvolti nella pianificazione, nel finanziamento, nel lavoro di ricerca e normativo di queste tecnologie.

Ormai esiste un set di problematiche, di valori e di principi su cui ADA dovrebbe svilupparsi ed  accettare questi principi è un passo fondamentale per assicurare che le tecnologie costruite su ADA siano sviluppate e usate a beneficio della società.

Tuttavia, sono state identificate tre principali lacune:

  1. Non è chiaro o non c’è ancora consenso in merito ai concetti etici principali e come questi vadano applicati in specifiche situazioni;
  2. Scarsa attenzione è data alle contrapposizioni tra ideali e valori;
  3. Prove insufficienti per quanto riguarda l’impatto e le prospettive che la tecnologia avrà sui diversi tipi di pubblico.

Problema n. 1: Eliminare l’ambiguità in merito a termini comunemente usati (come privacy, pregiudizio, e accountability): In che modo?

a) Analizzando le diverse interpretazioni;

b) Capendo come essi vengono utilizzati in pratica nelle diverse discipline, settori, tra il pubblico e nelle diverse società a livello internazionale;

c) Creare consenso intorno al loro uso, attraverso modalità eticamente e socialmente sostenibili;

d) Riconoscendo esplicitamente le differenze principali laddove il consenso non possa essere facilmente accettato, e sviluppando una terminologia per impedire che persone provenienti da discipline, settori e culture differenti comunichino tra loro.

 

Per chiarire e risolvere le ambiguità e i disaccordi sull’uso dei termini chiave bisogna domandarsi:

  • Quali sono i diversi significati dei termini su cui vertono i dibattiti su ADA? I termini principali in questione sono, tra gli altri: equità, pregiudizio, discriminazione, trasparenza, spiegazione, interpretazione, privacy, responsabilità, dignità, solidarietà, comodità, conferimento e realizzazione personale;
  • Come sono utilizzati questi termini? In modo intercambiabile o con significati opposti?
  • Con quale terminologia possono essere indicati i diversi tipi di problemi?
  • In che modo i termini chiave utilizzati divergono tra le varie discipline, settori, culture ed i pubblici?

 

Per costruire dei ponti concettuali tra le diverse discipline e le culture:

  • Quali altre prospettive culturali, particolarmente quelle che provengono dai Paesi in via di sviluppo e dai gruppi più marginali, non sono ben rappresentate nel lavoro politico e di ricerca in tutti i programmi etici ADA e come possono essere incluse? Forse traducendo importanti whitepaper e quadri normativi, o creando delle collaborazioni su specifici temi?
  • Quali discipline accademiche sono attualmente sottorappresentate nella ricerca sui programmi etici ADA? E quale collaborazione nella ricerca inter/trans-disciplinare può aiutare ad includere queste discipline?

 

Per creare consenso e gestire il dissenso:

  • In caso di ambiguità in merito all’uso di particolari termini, come può essere raggiunto il consenso e un comune accordo?
  • Quando il consenso non può essere facilmente raggiunto, come possiamo riconoscere e risolvere le dimensioni del disaccordo?

 

Problema n. 2: Identificare e risolvere le contrapposizioni tra i modi in cui la tecnologia può minacciare i diversi valori e i modi in cui può supportarli: In che modo?

a) Studiando gli effettivi problemi di contrapposizione nelle attuali applicazioni di ADA. Sono state identificate per adesso quattro tensioni centrali:

  1. Usare algoritmi per prendere decisioni e fare previsioni più accurate vs assicurare un trattamento più giusto e più equo;
  2. Cogliere i vantaggi di una migliore personalizzazione nella sfera digitale vs rafforzare la solidarietà e la cittadinanza;
  3. Usare i dati per migliorare la qualità e l’efficienza dei servizi vs rispettare la privacy e l’autonomia informativa degli individui;
  4. Usare l’automazione per rendere le vite delle persone più semplici vs promuovere l’autorealizzazione e la dignità.

b) Identificando ulteriori contrapposizioni considerando che:

  1. I costi e i benefici delle tecnologie basate su ADA possono essere distribuiti in modo ineguale tra i vari gruppi, sulla base di discriminazioni per sesso, classe, disabilità o etnia;
  2. Benefici a breve termine della tecnologia possono essere raggiunti a scapito di perdite in termini di valori nel lungo termine;
  3. Le tecnologie basate su ADA possono andare a beneficio di individui o gruppi ma possono creare problemi a livello collettivo.

c) Cercare modi diversi per risolvere diversi tipi di contrapposizione, distinguendo in particolare tra quelle contrapposizioni che riflettono un conflitto effettivo tra valori e quelle che sono illusorie o che ammettono soluzioni pratiche.

 

Per capire meglio le quattro contrapposizioni:

  • Fino a che punto siamo sicuri di trovarci davanti a dilemmi veri?
  • Per le contrapposizioni principali, questo include:
  1. In che modo i più accurati algoritmi predittivi possono essere utilizzati in modo che non violino l’equità e l’uguaglianza?
  2. Come possiamo cogliere i benefici della personalizzazione e rispettare gli ideali di solidarietà e cittadinanza?
  3. Come possiamo usare i dati personali per migliorare i servizi pubblici e preservare e migliorare la privacy e l’autonomia informativa?
  4. Come possiamo usare l’automazione per rendere le nostre vite più comode e allo stesso tempo promuovere la propria realizzazione e rispettare la propria dignità?

 

Per legittimare le scelte:

  • Come possiamo dar voce a tutte le parti in gioco influenzate da ADA e soddisfare i loro interessi con rigore e rispetto?
  • Quali sono le scelte accettabili e legittime compatibili con i diritti di coloro che sono toccati da queste tecnologie?
  • Quali meccanismi di risoluzione possono ricevere una più ampia accettazione?
  • Per le quattro aree di tensione bisogna includere:
  1. È accettabile usare un algoritmo che non funziona per un gruppo specifico, se quello stesso algoritmo è invece corretto per il resto della popolazione? Se si, quando?
  2. Quanto dovremmo limitare la personalizzazione delle pubblicità e dei servizi pubblici al fine di preservare gli ideali di cittadinanza e solidarietà?
  3. A quali rischi di violazione della privacy e dell’autonomia informativa è accettabile andare incontro per migliorare la prevenzione e la salute pubblica?
  4. Quali capacità dovrebbero rimanere sempre in mani umane? E di conseguenza, quando dovremmo rigettare l’utilizzo di tecnologie innovative di automazione?

Per identificare nuove contrapposizioni oltre quelle già descritte:

  • In quali gruppi potrebbero essere equamente distribuiti i benefici e i danni delle tecnologie basate su ADA?
  • In quali ambiti le tecnologie basate su ADA potrebbero presentare opportunità nel breve periodo ma compromettere importanti valori nel lungo termine?
  • È possibile che sottovalutiamo i possibili impatti della tecnologia? In che ambito applicare tecnologie che apportano benefici da un punto di vista individualistico può produrre effetti negativi all’esterno?

 

Problema n. 3: Sviluppare una base d’indagine

Per approfondire la nostra comprensione delle capacità e delle limitazioni tecnologiche:

  • Cosa abbiamo bisogno di capire in merito alle capacità e limitazioni della tecnologia per valutare in modo significativo i rischi e le opportunità che essi pongono nei diversi contesti etici e sociali?
  • In che modo i progressi nella scoperta delle capacità scientifiche possono aiutare a risolvere le contrapposizioni tra i valori nelle applicazioni di ADA? E quali sono i limiti della tecnologia a questo proposito?

 

Applicare queste domande nelle quattro contrapposizioni specifiche:

  • Precisione vs trattamento giusto ed equo
  1. In che misura la precisione deve prevalere sulle diverse definizioni di equità?
  2. Quali forme di interpretazione sono convenienti dalla prospettiva delle diverse parti interessate?
  3. Quali forme di interpretazione possono essere assicurate nei modelli all’avanguardia?
  4. In che misura è possibile assicurare un’adeguata interpretazione senza sacrificare la precisione (o altri elementi come la privacy)?

 

  • Personalizzazione vs solidarietà e cittadinanza
  1. Ci sono dei limiti in linea di principio o in pratica su come può diventare la personalizzazione, per esempio usando gli sviluppi della tecnologia attuale o quelli futuri?
  2. In che misura la tecnologia influenza in modo significativo i risultati rilevanti (per esempio la soddisfazione dell’utente, il comportamento del consumatore, le intenzioni di voto)?

 

  • Qualità ed efficienza dei servizi vs privacy e autonomia informativa
  1. In che misura l’apprendimento automatico e i “big data” migliorano i servizi pubblici? I possibili vantaggi possono essere quantificati?
  2. Fino a che punto i metodi attuali permettono l’uso di dati personali in aggregato e allo stesso tempo proteggono la privacy dei dati degli individui?
  3. Quali sono i metodi migliori per assicurare un consenso effettivo?

 

  • Comodità vs realizzazione di sé e dignità
  1. Quali compiti possono essere facilmente automatizzati con le tecnologie attuali o future?
  2. Quali sarebbero i costi (per esempio in termini di energia e infrastrutture) per un’ampia automatizzazione di una determinata attività?

Per costruire una base d’indagine più robusta sugli usi correnti e gli impatti della tecnologia:

  • Nei diversi settori (come quello energetico, sanitario, legale o altri) che tipo di tecnologie basate su ADA sono già in uso e in che misura?
  • Quali sono gli impatti che queste applicazioni hanno sulla società, in particolare su gruppi svantaggiati (si pensi alle persone di colore), a coloro che non sono adeguatamente rappresentati (come le donne) o ai soggetti vulnerabili (bambini e anziani)?

Applicare queste domande alle specifiche contrapposizioni:

  • Precisione vs trattamento giusto ed equo
  1. In quali settori e in che forma le tecnologie ADA sono state utilizzate per comunicare le decisioni/previsioni con implicazioni per la vita delle persone?
  2. È possibile determinare quanto spesso questo utilizzo risulta in un trattamento diverso per i vari gruppi in questione?
  3. Quanto è difficile interpretare questi algoritmi? E quali strumenti hanno gli individui per contestare queste decisioni?

 

  • Personalizzazione vs solidarietà e cittadinanza
  1. Che tipo di messaggi, interventi e servizi sono già stati personalizzati utilizzando l’apprendimento automatico? E in che settore?
  2. Quanto è precisa la personalizzazione? E su che tipo di categorie è basata?
  3. Ci sono delle prove che attestano che questa personalizzazione può sostanzialmente influenzare i gusti o il comportamento dei soggetti?

 

  • Qualità ed efficienza dei servizi vs privacy e autonomia informativa
  1. In quali specifici settori e applicazioni le tecnologie ADA sono state utilizzate per migliorare l’efficienza dei servizi pubblici?
  2. Qual è l’impatto che queste specifiche tecnologie hanno sulla privacy e l’autonomia?

 

  • Comodità vs realizzazione di sé e dignità
  1. Quali effetti ha l’automatizzazione nelle attività giornaliere del pubblico nelle diverse realtà?

 

Per comprendere meglio le prospettive dei diversi gruppi di interesse:

  • Quali sono le preferenze del pubblico sulla conoscenza di una data tecnologia (includendo i suoi meccanismi, scopi, proprietari e creatori)?
  • Se gli algoritmi sono attualmente utilizzati come elementi che contribuiscono a prendere decisioni che influenzano significativamente le vite delle persone, che tipo di spiegazioni si potrebbe dare al pubblico in merito a queste decisioni? Dipende dal tipo di decisione o fondamentalmente da chi è incaricato di adottarla?
  • “Il diverso pubblico” come percepisce le opportunità e i rischi che le tecnologie presentano, e in che modo interpretano la scelta tra i due? È un qualcosa che cambia in base a fattori demografici? Come può cambiare in base all’esperienza personale che ognuno ha con l’utilizzo della tecnologia?

 

Queste domande in relazione alle quattro contrapposizioni:

  • Precisione vs trattamento giusto ed equo
  1. In che modo le esperienze dei vari gruppi di persone influenzano l’efficacia di una tecnologia?
  2. Che cosa la gente ritiene essere “trattamento giusto ed equo” nei diversi contesti?

 

  • Personalizzazione vs solidarietà e cittadinanza
  1. In quali contesti le persone cercano o approvano le informazioni personalizzate o le opzioni specificatamente indirizzate a un certo profilo nel quale essi stessi si riconoscono?
  2. In che modo l’esperienza delle persone cambia nella sfera pubblica in base all’automatizzazione?

 

  • Qualità ed efficienza dei servizi vs privacy e autonomia informativa
  1. Quando le persone accettando l’utilizzo dei loro dati personali per rendere i servizi pubblici più efficienti?
  2. In che misura queste attitudini variano in base agli specifici dati che vengono richiesti, a chi deve farne uso e all’utilizzo che se ne fa?
  3. In che modo queste attitudini cambiano tra i vari gruppi?

 

  • Comodità vs realizzazione di sé e dignità
  1. Per quali compiti e lavori è più difficile rinunciare all’automatizzazione? La risposta a questa domanda può cambiare in base a fattori demografici?
  2. Alla luce di un aumento dell’automatizzazione, come cambierebbe l’organizzazione del lavoro?

2.1 Fino a che punto alle persone piacerebbe interagire con le tecnologie ADA nel posto di lavoro?

2.2 Per quali compiti è eticamente corretto che le tecnologie prendano il sopravvento?

 

Queste riflessioni stanno all’intersezione tra l’etica ed il diritto, sono rappresentative delle grandi sfide che investono imprenditori, ricercatori, sviluppatori ed istituzioni nella gestione delle tecnologie emergenti,  rispetto alle quali serve comunque una normazione giuridica, che giustifichi alcune categorie generali di riferimento quale orizzonte concettuale per la valutazione e la regolazione specifica delle singole tecnologie sul piano applicativo, a prescindere che si tratti di infotecnologie, neurotecnologie, biotecnologie o nanotecnologie.

1 Star2 Stars3 Stars4 Stars5 Stars (3 votes, average: 5,00 out of 5)
Loading...

Lascia un commento

Your email address will not be published.