0
protezione e sistemi di intelligenza artificiale

Sistemi di intelligenza artificiale

Nell’ambito della 40ª Conferenza internazionale dei commissari per la protezione dei dati e la privacy, martedì 23 ottobre 2018 a Bruxelles è stata pubblicata la Dichiarazione sull’etica e la protezione dei dati nell’intelligenza artificiale, la cui stesura ha visto fra gli autori anche il Garante italiano per la protezione dei dati e la privacy.

Al tavolo della Conferenza le tematiche erano molte, e numerose affermazioni di principio e di impegno sono state prese.

Anzitutto, è stato riconosciuto che i sistemi di intelligenza artificiale possono apportare benefici significativi agli utenti e alla società, tra cui: aumentare la rapidità dei processi decisionali; creare nuovi modi per la partecipazione degli individui a procedure decisorie democratiche; migliorare l’efficienza nel settore pubblico e industriale; raggiungere una più equa distribuzione di risorse e opportunità; offrire nuovi metodi e soluzioni in vari campi come sanità pubblica, assistenza medica, sicurezza, sviluppo sostenibile, agricoltura e trasporti; portare nuove opportunità nella ricerca scientifica e nell’istruzione e fornire alle persone servizi più personalizzati.

In secondo luogo, i commissari hanno evidenziato il rapido progresso dei big data e dell’intelligenza artificiale, soprattutto dell’apprendimento automatico, in particolare con lo sviluppo di tecnologie di deep learning, che consentono agli algoritmi di risolvere complesse operazioni che portano a decisioni potenziali, sottolineando tuttavia come ciò possa rendere tali processi “più opachi”. A ben vedere, il rispetto dei diritti alla privacy e alla protezione dei dati è, in realtà, allo stato, reso difficile proprio dallo sviluppo dell’intelligenza artificiale. Infatti, le tecnologie di apprendimento automatico in particolare, e i sistemi di intelligenza artificiale in generale, devono fare affidamento sull’elaborazione di grandi serie di dati personali per il loro sviluppo, con un potenziale impatto sulla protezione dei dati e sulla privacy. Ad esempio, lo sviluppo dell’intelligenza artificiale in combinazione con la sorveglianza di massa solleva preoccupazioni sul possibile uso di dati personali per ridurre i diritti e le libertà fondamentali.

Tenendo quindi conto dei potenziali rischi indotti dall’attuale tendenza della concentrazione del mercato nel campo dell’intelligenza artificiale, la ricerca in tale campo dovrebbe essere integrata da considerazioni etiche e sui diritti umani.

Inoltre, in campo scientifico si è accertato che alcuni set di dati usati per “addestrare” i sistemi di intelligenza artificiale e quelli basati sull’apprendimento artificiale, contengono pregiudizi intrinseci che portano a decisioni che possono discriminare ingiustamente alcuni individui o gruppi, potenzialmente limitando la disponibilità di determinati servizi o contenuti, e quindi interferendo con i diritti delle persone come la libertà di espressione e di informazione, o con l’esclusione delle persone da alcuni aspetti della vita personale, sociale, professionale.

Vi è un altro aspetto che i commissari sottolineano: la ricerca è sì avanzata, ma ancora adesso alcune “decisioni” prese dai sistemi basati sull’intelligenza artificiale non possono essere ben comprese, e ciò solleva fondamentali questioni di responsabilità non solo per la privacy e la legge sulla protezione dei dati, ma anche per l’attribuzione di responsabilità in caso di errori e danno.

La 40ª Conferenza internazionale dei commissari per la protezione dei dati e la privacy ritiene, pertanto, che la creazione, lo sviluppo e l’uso di sistemi di intelligenza artificiale debbano rispettare pienamente i diritti umani, in particolare il diritto alla protezione dei dati personali e alla vita privata, nonché alla dignità umana, alla non discriminazione e ai valori fondamentali e devono fornire soluzioni per consentire alle persone di mantenere il controllo e comprensione dei sistemi di intelligenza artificiale.

La Conferenza ha approvato, di conseguenza, i seguenti principi guida:

  1. L’intelligenza artificiale e le tecnologie di apprendimento automatico dovrebbero essere progettate, sviluppate e utilizzate in riferimento ai diritti umani fondamentali e in conformità al principio di equità, in particolare:
  2. considerando le ragionevoli aspettative delle persone, facendo sì che l’uso dei sistemi di intelligenza artificiale rimanga coerente con i loro scopi originali e che i dati siano utilizzati in modo non incompatibile con lo scopo originale della loro raccolta;
  3. prendendo in considerazione non solo l’impatto che l’uso dell’intelligenza artificiale può avere sull’individuo, ma anche l’impatto collettivo sui gruppi e sulla società in generale;
  4. assicurando che i sistemi di intelligenza artificiale siano sviluppati in modo tale da facilitare lo sviluppo dell’umanità e non la impediscano o compromettano, riconoscendo così la necessità di delineare e limitare i confini su determinati usi.

 

Dovrebbero essere garantiti l’attenzione e la vigilanza continue, nonché la responsabilità per i potenziali effetti e le conseguenze dei sistemi di intelligenza artificiale:

  1. promuovendo la responsabilità di tutte le parti interessate nei confronti dei singoli, delle autorità di vigilanza e di altre parti terze ove opportuno, anche attraverso la realizzazione di audit, monitoraggio continuo e valutazione dell’impatto dei sistemi di intelligenza artificiale e revisione periodica dei meccanismi di supervisione;
  2. promuovendo la responsabilità collettiva e congiunta, coinvolgendo l’intera catena di attori e soggetti interessati, ad esempio con lo sviluppo di standard collaborativi e la condivisione delle migliori pratiche;
  3. investendo in sensibilizzazione, istruzione, ricerca e formazione al fine di garantire un buon livello di informazione e comprensione dell’intelligenza artificiale e dei suoi potenziali effetti nella società;
  4. stabilendo processi di governance dimostrabili per tutti gli attori pertinenti, ad esempio affidandosi a fidati terzi o istituendo comitati etici indipendenti.

La trasparenza e l’intelligibilità dei sistemi di intelligenza artificiale dovrebbero essere migliorate, con l’obiettivo di un’efficace implementazione, in particolare:

  1. investendo nella ricerca scientifica pubblica e privata sull’intelligenza artificiale spiegabile;
  2. promuovendo la trasparenza, l’intelligibilità e la raggiungibilità, ad esempio attraverso lo sviluppo di modi di comunicazione innovativi, tenendo conto dei diversi livelli di trasparenza e informazione richiesti per ciascun pubblico pertinente;
  3. rendendo più trasparenti le pratiche delle organizzazioni, in particolare promuovendo la trasparenza algoritmica e la verificabilità dei sistemi, garantendo al tempo stesso la rilevanza delle informazioni fornite;
  4. garantendo il diritto all’autodeterminazione informativa, in particolare assicurando che le persone siano informate in modo appropriato quando interagiscono direttamente con un sistema di intelligenza artificiale o quando forniscono dati personali che devono essere elaborati da tali sistemi;
  5. fornendo informazioni adeguate sullo scopo e sugli effetti dei sistemi di intelligenza artificiale al fine di verificare l’allineamento continuo con le aspettative degli individui e consentire il controllo umano generale su tali sistemi.

Come parte di un approccio generale di “etica di progettazione”, i sistemi di intelligenza artificiale dovrebbero essere progettati e sviluppati in modo responsabile, applicando i principi di privacy by default e privacy by design, in particolare:

  1. attuando misure e procedure tecniche e organizzative – proporzionali al tipo di sistema sviluppato – per garantire il rispetto della privacy e dei dati personali delle persone interessate, sia nel determinare le modalità del trattamento che al momento dell’elaborazione dei dati;
  2. valutando e documentando gli impatti previsti sugli individui e sulla società all’inizio del progetto di intelligenza artificiale e per gli sviluppi rilevanti durante l’intero ciclo di vita;
  3. individuando requisiti specifici per un uso etico e corretto dei sistemi di intelligenza artificiale e per il rispetto dei diritti umani come parte dello sviluppo e delle operazioni di qualsiasi sistema di intelligenza artificiale.

Dovrebbe essere promossa la responsabilizzazione di ogni individuo e incoraggiato l’esercizio di diritti individuali, nonché la creazione di opportunità per l’impegno pubblico, in particolare attraverso:

  1. il rispetto della protezione dei dati e dei diritti alla privacy, incluso, se del caso, il diritto all’informazione, il diritto di accesso, il diritto di opporsi al trattamento e il diritto alla cancellazione e promuovendo tali diritti attraverso campagne di educazione e sensibilizzazione;
  2. il rispetto dei diritti connessi tra cui libertà di espressione e informazione, nonché non discriminazione;
  3. il riconoscendo che il diritto di opporsi o di ricorso si applica alle tecnologie che influenzano lo sviluppo personale o le opinioni e garantisce, ove applicabile, il diritto delle persone di non essere assoggettate a una decisione basata esclusivamente sul trattamento automatizzato se le influisce in modo significativo e, ove non applicabile, garantendo il diritto delle persone per contestare tale decisione;
  4. l’utilizzo delle capacità dei sistemi di intelligenza artificiale per promuovere una pari responsabilizzazione e migliorare l’impegno pubblico, ad esempio attraverso interfacce adattabili e strumenti accessibili.

Pregiudizi o discriminazioni illecite che possono derivare dall’uso di dati nell’intelligenza artificiale dovrebbero essere bilanciati e mitigati:

  1. assicurando il rispetto degli strumenti giuridici internazionali in materia di diritti umani e non discriminazione;
  2. investendo nella ricerca tecnica per identificare, affrontare e mitigare i pregiudizi;
  3. adottando misure ragionevoli per garantire che i dati e le informazioni personali utilizzati nel processo decisionale automatizzato siano accurati, aggiornati e il più possibile completi;
  4. elaborando orientamenti e principi specifici nell’affrontare pregiudizi e discriminazioni e promuovendo la consapevolezza dei singoli e delle parti interessate.

Al fine di dare attuazione a tali principi e modelli etici di comportamento nel campo dell’intelligenza artificiale, la 40a Conferenza internazionale dei garanti della privacy e della protezione dei dati, tramite la Dichiarazione, istituisce un gruppo di lavoro permanente che affronti le sfide dello sviluppo dell’intelligenza artificiale.

Questo gruppo di lavoro sui principi di etica e protezione dei dati nell’intelligenza artificiale (Ethics and Data Protection in Artificial Intelligence) dovrà avere il compito di promuovere la comprensione e il rispetto dei principi di cui sopra da parte di tutti i soggetti coinvolti nello sviluppo di sistemi di intelligenza artificiale, compresi i governi e le autorità pubbliche, organismi di normazione, progettisti di sistemi di intelligenza artificiale, fornitori e ricercatori, aziende, cittadini e utenti finali di sistemi di intelligenza artificiale.

Il gruppo di lavoro dovrà tenere conto del lavoro svolto da altri gruppi di lavoro della Conferenza e dovrà riferire regolarmente sulla sua attività alla Conferenza.

La Conferenza si sforzerà così di sostenere proattivamente un dibattito pubblico attivo sull’etica digitale che miri alla creazione di una forte cultura etica e della consapevolezza personale in questo campo.

1 Star2 Stars3 Stars4 Stars5 Stars (4 votes, average: 4,75 out of 5)
Loading...

Lascia un commento

Your email address will not be published.