0
protezione e sistemi di intelligenza artificiale

Sistemi di intelligenza artificiale

Nell’ambito della 40ª Conferenza internazionale dei commissari per la protezione dei dati e la privacy, martedì 23 ottobre 2018 a Bruxelles è stata pubblicata la Dichiarazione sull’etica e la protezione dei dati nell’intelligenza artificiale, la cui stesura ha visto fra gli autori anche il Garante italiano per la protezione dei dati e la privacy.

Al tavolo della Conferenza le tematiche erano molte, e numerose affermazioni di principio e di impegno sono state prese.

Anzitutto, è stato riconosciuto che i sistemi di intelligenza artificiale possono apportare benefici significativi agli utenti e alla società, tra cui: aumentare la rapidità dei processi decisionali; creare nuovi modi per la partecipazione degli individui a procedure decisorie democratiche; migliorare l’efficienza nel settore pubblico e industriale; raggiungere una più equa distribuzione di risorse e opportunità; offrire nuovi metodi e soluzioni in vari campi come sanità pubblica, assistenza medica, sicurezza, sviluppo sostenibile, agricoltura e trasporti; portare nuove opportunità nella ricerca scientifica e nell’istruzione e fornire alle persone servizi più personalizzati.

In secondo luogo, i commissari hanno evidenziato il rapido progresso dei big data e dell’intelligenza artificiale, soprattutto dell’apprendimento automatico, in particolare con lo sviluppo di tecnologie di deep learning, che consentono agli algoritmi di risolvere complesse operazioni che portano a decisioni potenziali, sottolineando tuttavia come ciò possa rendere tali processi “più opachi”. A ben vedere, il rispetto dei diritti alla privacy e alla protezione dei dati è, in realtà, allo stato, reso difficile proprio dallo sviluppo dell’intelligenza artificiale. Infatti, le tecnologie di apprendimento automatico in particolare, e i sistemi di intelligenza artificiale in generale, devono fare affidamento sull’elaborazione di grandi serie di dati personali per il loro sviluppo, con un potenziale impatto sulla protezione dei dati e sulla privacy. Ad esempio, lo sviluppo dell’intelligenza artificiale in combinazione con la sorveglianza di massa solleva preoccupazioni sul possibile uso di dati personali per ridurre i diritti e le libertà fondamentali.

Tenendo quindi conto dei potenziali rischi indotti dall’attuale tendenza della concentrazione del mercato nel campo dell’intelligenza artificiale, la ricerca in tale campo dovrebbe essere integrata da considerazioni etiche e sui diritti umani.

Inoltre, in campo scientifico si è accertato che alcuni set di dati usati per “addestrare” i sistemi di intelligenza artificiale e quelli basati sull’apprendimento artificiale, contengono pregiudizi intrinseci che portano a decisioni che possono discriminare ingiustamente alcuni individui o gruppi, potenzialmente limitando la disponibilità di determinati servizi o contenuti, e quindi interferendo con i diritti delle persone come la libertà di espressione e di informazione, o con l’esclusione delle persone da alcuni aspetti della vita personale, sociale, professionale.

Vi è un altro aspetto che i commissari sottolineano: la ricerca è sì avanzata, ma ancora adesso alcune “decisioni” prese dai sistemi basati sull’intelligenza artificiale non possono essere ben comprese, e ciò solleva fondamentali questioni di responsabilità non solo per la privacy e la legge sulla protezione dei dati, ma anche per l’attribuzione di responsabilità in caso di errori e danno.

La 40ª Conferenza internazionale dei commissari per la protezione dei dati e la privacy ritiene, pertanto, che la creazione, lo sviluppo e l’uso di sistemi di intelligenza artificiale debbano rispettare pienamente i diritti umani, in particolare il diritto alla protezione dei dati personali e alla vita privata, nonché alla dignità umana, alla non discriminazione e ai valori fondamentali e devono fornire soluzioni per consentire alle persone di mantenere il controllo e comprensione dei sistemi di intelligenza artificiale.

La Conferenza ha approvato, di conseguenza, i seguenti principi guida:

  1. L’intelligenza artificiale e le tecnologie di apprendimento automatico dovrebbero essere progettate, sviluppate e utilizzate in riferimento ai diritti umani fondamentali e in conformità al principio di equità, in particolare:
  2. considerando le ragionevoli aspettative delle persone, facendo sì che l’uso dei sistemi di intelligenza artificiale rimanga coerente con i loro scopi originali e che i dati siano utilizzati in modo non incompatibile con lo scopo originale della loro raccolta;
  3. prendendo in considerazione non solo l’impatto che l’uso dell’intelligenza artificiale può avere sull’individuo, ma anche l’impatto collettivo sui gruppi e sulla società in generale;
  4. assicurando che i sistemi di intelligenza artificiale siano sviluppati in modo tale da facilitare lo sviluppo dell’umanità e non la impediscano o compromettano, riconoscendo così la necessità di delineare e limitare i confini su determinati usi.

 

Dovrebbero essere garantiti l’attenzione e la vigilanza continue, nonché la responsabilità per i potenziali effetti e le conseguenze dei sistemi di intelligenza artificiale:

  1. promuovendo la responsabilità di tutte le parti interessate nei confronti dei singoli, delle autorità di vigilanza e di altre parti terze ove opportuno, anche attraverso la realizzazione di audit, monitoraggio continuo e valutazione dell’impatto dei sistemi di intelligenza artificiale e revisione periodica dei meccanismi di supervisione;
  2. promuovendo la responsabilità collettiva e congiunta, coinvolgendo l’intera catena di attori e soggetti interessati, ad esempio con lo sviluppo di standard collaborativi e la condivisione delle migliori pratiche;
  3. investendo in sensibilizzazione, istruzione, ricerca e formazione al fine di garantire un buon livello di informazione e comprensione dell’intelligenza artificiale e dei suoi potenziali effetti nella società;
  4. stabilendo processi di governance dimostrabili per tutti gli attori pertinenti, ad esempio affidandosi a fidati terzi o istituendo comitati etici indipendenti.

La trasparenza e l’intelligibilità dei sistemi di intelligenza artificiale dovrebbero essere migliorate, con l’obiettivo di un’efficace implementazione, in particolare:

  1. investendo nella ricerca scientifica pubblica e privata sull’intelligenza artificiale spiegabile;
  2. promuovendo la trasparenza, l’intelligibilità e la raggiungibilità, ad esempio attraverso lo sviluppo di modi di comunicazione innovativi, tenendo conto dei diversi livelli di trasparenza e informazione richiesti per ciascun pubblico pertinente;
  3. rendendo più trasparenti le pratiche delle organizzazioni, in particolare promuovendo la trasparenza algoritmica e la verificabilità dei sistemi, garantendo al tempo stesso la rilevanza delle informazioni fornite;
  4. garantendo il diritto all’autodeterminazione informativa, in particolare assicurando che le persone siano informate in modo appropriato quando interagiscono direttamente con un sistema di intelligenza artificiale o quando forniscono dati personali che devono essere elaborati da tali sistemi;
  5. fornendo informazioni adeguate sullo scopo e sugli effetti dei sistemi di intelligenza artificiale al fine di verificare l’allineamento continuo con le aspettative degli individui e consentire il controllo umano generale su tali sistemi.

Come parte di un approccio generale di “etica di progettazione”, i sistemi di intelligenza artificiale dovrebbero essere progettati e sviluppati in modo responsabile, applicando i principi di privacy by default e privacy by design, in particolare:

  1. attuando misure e procedure tecniche e organizzative – proporzionali al tipo di sistema sviluppato – per garantire il rispetto della privacy e dei dati personali delle persone interessate, sia nel determinare le modalità del trattamento che al momento dell’elaborazione dei dati;
  2. valutando e documentando gli impatti previsti sugli individui e sulla società all’inizio del progetto di intelligenza artificiale e per gli sviluppi rilevanti durante l’intero ciclo di vita;
  3. individuando requisiti specifici per un uso etico e corretto dei sistemi di intelligenza artificiale e per il rispetto dei diritti umani come parte dello sviluppo e delle operazioni di qualsiasi sistema di intelligenza artificiale.

Dovrebbe essere promossa la responsabilizzazione di ogni individuo e incoraggiato l’esercizio di diritti individuali, nonché la creazione di opportunità per l’impegno pubblico, in particolare attraverso:

  1. il rispetto della protezione dei dati e dei diritti alla privacy, incluso, se del caso, il diritto all’informazione, il diritto di accesso, il diritto di opporsi al trattamento e il diritto alla cancellazione e promuovendo tali diritti attraverso campagne di educazione e sensibilizzazione;
  2. il rispetto dei diritti connessi tra cui libertà di espressione e informazione, nonché non discriminazione;
  3. il riconoscendo che il diritto di opporsi o di ricorso si applica alle tecnologie che influenzano lo sviluppo personale o le opinioni e garantisce, ove applicabile, il diritto delle persone di non essere assoggettate a una decisione basata esclusivamente sul trattamento automatizzato se le influisce in modo significativo e, ove non applicabile, garantendo il diritto delle persone per contestare tale decisione;
  4. l’utilizzo delle capacità dei sistemi di intelligenza artificiale per promuovere una pari responsabilizzazione e migliorare l’impegno pubblico, ad esempio attraverso interfacce adattabili e strumenti accessibili.

Pregiudizi o discriminazioni illecite che possono derivare dall’uso di dati nell’intelligenza artificiale dovrebbero essere bilanciati e mitigati:

  1. assicurando il rispetto degli strumenti giuridici internazionali in materia di diritti umani e non discriminazione;
  2. investendo nella ricerca tecnica per identificare, affrontare e mitigare i pregiudizi;
  3. adottando misure ragionevoli per garantire che i dati e le informazioni personali utilizzati nel processo decisionale automatizzato siano accurati, aggiornati e il più possibile completi;
  4. elaborando orientamenti e principi specifici nell’affrontare pregiudizi e discriminazioni e promuovendo la consapevolezza dei singoli e delle parti interessate.

Al fine di dare attuazione a tali principi e modelli etici di comportamento nel campo dell’intelligenza artificiale, la 40a Conferenza internazionale dei garanti della privacy e della protezione dei dati, tramite la Dichiarazione, istituisce un gruppo di lavoro permanente che affronti le sfide dello sviluppo dell’intelligenza artificiale.

Questo gruppo di lavoro sui principi di etica e protezione dei dati nell’intelligenza artificiale (Ethics and Data Protection in Artificial Intelligence) dovrà avere il compito di promuovere la comprensione e il rispetto dei principi di cui sopra da parte di tutti i soggetti coinvolti nello sviluppo di sistemi di intelligenza artificiale, compresi i governi e le autorità pubbliche, organismi di normazione, progettisti di sistemi di intelligenza artificiale, fornitori e ricercatori, aziende, cittadini e utenti finali di sistemi di intelligenza artificiale.

Il gruppo di lavoro dovrà tenere conto del lavoro svolto da altri gruppi di lavoro della Conferenza e dovrà riferire regolarmente sulla sua attività alla Conferenza.

La Conferenza si sforzerà così di sostenere proattivamente un dibattito pubblico attivo sull’etica digitale che miri alla creazione di una forte cultura etica e della consapevolezza personale in questo campo.

1 Star2 Stars3 Stars4 Stars5 Stars (5 votes, average: 4,60 out of 5)
Loading...
0
Responsabilità sociale d’impresa (CSR)

Intelligenza Artificiale e responsabilità sociale d’impresa

Lo sviluppo e l’implementazione di “Robotica e Intelligenza Artificiale” consentirà alle aziende di superare molti degli attuali ostacoli allo sviluppo della corporate social responsibility (CSR), acronimo che insieme ad altri studiosi preferiamo definire CORPORATE SUSTAINABILITY & RESPONSIBILITY.

Questa metadisciplina viene classificata dalla letteratura italiana come RSI: Responsabilità Sociale d’Impresa, anche in questo caso appare preferibile evolvere a “Responsabilità e Sostenibilità di Impresa.”

Nella sua opera del 2011 intitolata “The Age of Responsibility: CSR 2.0 and the New DNA of Business”, Wayne Visser ha classificato l’evoluzione della responsabilità sociale d’impresa in 5 cicli economici sovrapposti chiamati “ere del business”:

  • AVIDITA’
  • FILANTROPIA
  • MARKETING
  • MANAGEMENT
  • RESPONSABILITA’

L’accademico e studioso di Futures Studies ritiene che ciascuno di questi cicli sia manifestazione di una precisa e differente fase nello sviluppo della RSI / CSR in un’azienda: DIFENSIVA, CARITATEVOLE, PROMOZIONALE, STRATEGICA, TRASFORMATIVA.

Ecco uno schema rappresentativo del modello tassonomico proposto:

intelligenza artificiale

Le aziende tendono a navigare in maniera ondulata le varie “ere di business” e le corrispondenti “fasi di rsi / csr”, spesso gestendo plurime attività eterogenee posizionate contemporaneamente su diverse fasi ed ere.

Le fasi più evolute sono quelle della RSICRS Strategica e della RSI / CSR Trasformativa.

Nella prima, le attività di responsabilità sociale d’impresa vengono correlate al core business aziendale (ad es. la gestione dell’acqua nel business model di Coca-Cola), spesso attraverso l’adesione ai codici di RSI / CSR e l’implementazione di sistemi di gestione sociale ed ambientale.

Tipicamente prevede cicli di CSR Policy Development, l’individuazione di obiettivi e traguardi (goals & targets), implementazione dei piani d’azione, auditing e reporting.

La RSICSR trasformativa si focalizza sulla identificazione e sul contrasto alle cause delle attuali problematiche di insostenibilità ed irresponsabilità, tipicamente a mezzo di innovazione del business model, rivoluzione dei processi dei prodotti e dei servizi, nonché attività di lobbying sulle policy nazionali e sovranazionali.

Pertanto, mentre la RSICSR STRATEGICA è focalizzata a livello micro-sistemico, in cui il supporto alle problematiche sociali/ambientali avviene tramite ALLINEAMENTO con la propria strategia (che non viene necessariamente modificata), la RSI / CSR TRASFORMATIVA è fondata sulla comprensione delle interconnessioni a livello macro-sistemico (Società ed Ecosistema) e sulla MODIFICA DELLA STRATEGIA aziendale, per ottimizzarne i traguardi.

I 5 fattori chiave di cui si compone la RSI / CSR TRASFORMATIVA sono:

  • CREATIVITA’
  • SCALABILITA’
  • RICETTIVITA’
  • G-LOCALIZZAZIONE
  • CIRCOLARITA’

Volendo idealmente espandere il modello proposto da Visser, oggi possiamo ritenere di  trovarci all’inizio di quella che viene definita “intelligence age” (era dell’intelligenza) e il suo corrispettivo stadio nella RSICSR aziendale è quello della “fase cognitiva, in cui le “macchine” vengono utilizzate anche per trasformare e innovare radicalmente i processi di CSR.

Mentre l’etica, la sostenibilità, il modello  multi-stakeholdere il CSR hanno acquisito popolarità, sono la gestione, l’efficienza, la necessità e l’efficacia ad ostacolarne il progresso.  

Sostenitori e critici della responsabilità sociale d’impresa sono impegnati in quello che sembra un dibattito senza fine di retorica fumosa; dibattiti quasi esclusivamente concettuali, conditi da forzate etichettature di “finalità strategiche”, in realtà vuote ed inutili sul piano empirico.

Nella sua essenza, la RSICSR può essere vista come un processo di business, e come tale necessità di affinamento ed ininterrotte revisioni per migliorarne efficienza ed efficacia.

Questo orientamento, avente come unico obiettivo quello di rendere la RSI / CSR sempre più efficiente ed efficace, forma le basi del CSR neurocognitivo.

Le critiche tradizionalmente addossate alla RSICSR ricadono solitamente in tre macro-categorie:

1 )Misurazione/Dimensione/Stima:i dibattiti che ruotano sulla stima del valore della RSI / CSR riguardano sia le metodologie di quantificazione, sia quali fattori includere nella valutazione (fattori economici contro altri fattori).

Altri problemi ruotano introno alla analisi della rilevanza dei singoli portatori di interesse, spesso basata su dati soggettivi e strettamente connessa alla programmazione/pianificazione aziendale.

2) Comportamentale: questa critica fa riferimento al comportamento del Management, che ostacola intenzionalmente i programmi di RSI / CSR così da inibirne il raggiungimento del pieno potenziale, o indebolirne gli impatti positivi.

Il disallineamento degli incentivi può portare a questo comportamento e la RSICSR può essere bollata come irrilevante o controproducente per finalità utilitaristiche personali.

Questo genere di conflitti può influenzare profondamente la performance dei programmi di RSI / CSR.

3) Strategico/Organizzativa: l’incapacità di integrare propriamente la CSR in una strategia di business, veicolarla a livello di comunicazione aziendale, ottenere supporto organizzativo.

Queste problematiche non derivano da un comportamento intenzionalmente fraudolento del management, ma sono conseguenti a negligenza e imperizia.

La RSI / CSR necessita di una forte integrazione con la strategia aziendale.

Michael Porter e Mark Kramer hanno evidenziato come l’incapacità da parte di una azienda di sviluppare un ponte di stretto collegamento tra piano strategico e RSICSR, possa portare alla perdita di un potenziale ma significativo vantaggio competitivo.

L’ascesa delle tecnologie I.A-BASED sta trasformando il mondo del business in maniera dirompente.

Dalle vendite al marketing, dalla finanza alla  supply chain, gli effetti dell’impatto delle applicazioni delle I.A. sono riscontrabili in tutti i comparti economici.

Nella corporate social responsibility cognitiva, la I.A. è sfruttata in modo strategico ed integrato per migliorare radicalmente il processo della CSR:

– un sistema intelligente riesce ad individuare e comprendere i fattori economici trainanti di un’azienda, i valori chiave e consente di generare risultati positivi per gli stakeholder connessi.

E’ in grado di raccomandare un programma strategico e di mantenerne trasparente la gestione. 

Acquisendo i fattori economici e gli obiettivi della CSR, il sistema delinea una mappa che può aiutare a configurare e ad ottimizzare il programma di CSR.

– permette di eliminare o ridurre i bias cognitivi (pregiudizi) nella misurazione dei fattori economici/valori e nell’analisi della rilevanza dei singoli portatori di interesse.

fornisce indicatori precisi e performanti su più dimensioni che non solo classificano l’efficienza del programma in rapporto alla sua gestione e agli standard normativi, ma anche in rapporto a standard globali tramite un sistema di monitoraggio e ricerca di cambiamenti emergenti su scala globale.

– identifica i disallineamenti, gli errori di gestione, le frodi, gli interessi personali, così come altre tipiche problematiche di gestione, con processo di apprendimento e miglioramento continuo.

– consente un più efficiente rilevamento delle frodi ed esercizio degli internal audit.

– infine, questo tipo di tecnologia può aiutare ad identificare ed ottimizzare i punti di contatto tra strategia aziendale e iniziative di responsabilità sociale di impresa / corporate social responsibility.

Strategia di CSR

 

Come sviluppare una strategia di CSR Cognitiva?

-Creando un Business Plan dedicato

-Un ecosistema integrato con I.A. e robotica costituirà il telaio di una struttura cognitiva olistica che racchiuda la gestione di dati interni e big data, machine learning, sistemi automatizzati ad intelligenza artificiale e governance aziendale correlata alla CSR.

– I tradizionali Dipartimenti di Information Technology  difficilmente possiedono le necessarie skill in materia di I.A. e machine learning, pertanto a partire dalla automatizzazione delle operazioni di data-entry  fino al coinvolgimento delle altre funzioni aziendali e dei dipartimenti connessi, sarà necessario coinvolgere professionalità esterne:

un team trasversale che sappia coniugare la disciplina della responsabilità sociale d’impresa con quella della Business Administration e dell’Intelligenza Artificiale.

Non dimentichiamo inoltre che la tecnologia I.A. determinerà -essa stessa- a sua volta molteplici impatti sociali, che dovranno essere considerati e gestiti come parte integrante della CSR.

Desideri maggiori informazioni per sviluppare un progetto di Responsabilità Sociale di Impresa basato su intelligenza artificiale e machine Learning? Contattaci con l’apposito modulo che trovi in alto a questa pagina.

1 Star2 Stars3 Stars4 Stars5 Stars (9 votes, average: 4,89 out of 5)
Loading...
1 2 3