IA e riconoscimento facciale: come funziona e perché fallisce
Il riconoscimento facciale è diventato un argomento corrente a partire dal 2018 con l’introduzione dell’iPhone X, che ha sostituito il sistema TouchID di Apple con la biometria avanzata di riconoscimento facciale.
Per la maggior parte, FaceID funziona bene per i suoi utenti, ma a volte si verificano degli errori (ad esempio: il mio viso sblocca il telefono del mio gemello identico). Alcune situazioni possono anche essere interpretate con umorismo, ma sui grandi difetti degli algoritmi di riconoscimento facciale, purtroppo, non c’è tanto da ridere.
Gli utenti telefonici sono consapevoli che stanno usando il riconoscimento facciale per sbloccare il loro telefono, ma molti dimenticano che al giorno d’oggi tale tecnologia viene utilizzata per una considerevole varietà di scopi.
Le telecamere a circuito chiuso monitorano gli spazi pubblici e le tecnologie di riconoscimento facciale sono sempre più utilizzate per la sorveglianza, la sicurezza e per le indagini delle forze dell’ordine. Naturalmente, la tecnologia di riconoscimento facciale utilizzata per identificare i volti su un filmato a circuito chiuso scuro e granuloso differisce dal sistema iPhone, ma il meccanismo di base rimane lo stesso.
Non si dimentichi poi che l’intelligenza artificiale (IA) è usata anche dai militari. È noto che nel 2011 l’esercito statunitense ha utilizzato la tecnologia di riconoscimento facciale per identificare un leader ucciso di al Qaeda, Osama bin Laden.
Un sistema di riconoscimento facciale è stato rilasciato anche per l’INTERPOL alla fine del 2016 e da allora ha contribuito a identificare con successo oltre 650 criminali, fuggitivi, persone di interesse o persone scomparse. Si tratta, ovviamente, di storie di successo che mostrano come l’IA possa sostenere varie organizzazioni. Tuttavia, a causa del suo ampio utilizzo, errori dell’algoritmo potrebbero avere gravi implicazioni.
Si ritiene, ad esempio, che l’arresto di Robert Julian-Borchak Williams nel gennaio del 2020 sia stato il primo caso di un americano arrestato ingiustamente sulla base di una corrispondenza errata di un algoritmo di riconoscimento facciale. Si tratta di un segnale di avvertimento su come il riconoscimento facciale basato sull’IA possa essere usato in modo improprio dalle forze dell’ordine.
Il caso del Sig. Williams è iniziato quando, dopo un crimine di taccheggio a Detroit, il video di sorveglianza del negozio venne inviato alla polizia nella speranza di identificare un sospetto. Un esaminatore di immagini digitali per la Polizia di Stato del Michigan aveva caricato un fermo immagine del video nel database di riconoscimento facciale dello Stato, per cercare all’interno del sistema una potenziale corrispondenza in una collezione di 49 milioni di foto – utilizzando una tecnologia fornita per 5,5 milioni di dollari da una società chiamata DataWorks Plus.
L’algoritmo di riconoscimento facciale indicava la foto della patente di guida del signor Williams. Solo che il sistema si era sbagliato, e un uomo innocente venne ingiustamente trattenuto dalla polizia per oltre 30 ore.
Per capire perché l’IA potrebbe fare fatica a identificare correttamente i volti, dobbiamo ricordare che si tratta di un compito molto complesso per una macchina (circostanza facile da dimenticare, dato che la stessa azione viene così naturale alla maggior parte delle persone).
In realtà, il nostro cervello è così ben addestrato a farlo che si è dimostrato molto impegnativo per l’intelligenza artificiale eguagliare la nostra precisione, che si aggira in media intorno al 97,53%. La parte del cervello umano specializzata nel riconoscimento facciale è chiamata area fusiforme facciale (FFA, Fusiform Face Area), ed è stata fondamentale per la sopravvivenza della nostra specie. Ci permette di raccogliere informazioni su una persona entro una frazione di secondo dalla visione di un volto.
I principali fattori che causano difficoltà nello sviluppo di una tecnologia affidabile per il riconoscimento facciale sono stati definiti il problema A-PIE: invecchiamento, posa, illuminazione, emozioni. A causa di questi fattori, il volto umano appare come in perpetuo mutamento e potrebbe confondere un algoritmo. Per superare questo problema, i sensori dividono il volto in punti nodali, come l’orbita oculare, la distanza tra gli occhi o la larghezza del naso.
Queste misurazioni creano un codice unico, che è l’impronta del volto della persona. Questo va oltre la tecnologia di rilevamento facciale – utilizzata ad esempio per i filtri Snapchat – che può distinguere un volto umano ma non permette di associare alcuna identità.
C’è però una cosa che gli algoritmi fanno intrinsecamente meglio della maggior parte delle persone, ed è imparare dagli errori del passato. Ogni volta che un algoritmo abbina due facce in modo corretto o scorretto, ricorda i passaggi e crea una tabella di marcia, aggiungendo sempre più connessioni. Questo è il modo in cui funzionano gli algoritmi di deep learning.
La macchina riprende gli schemi del passato e li ripete. Questa è la chiave dell’intelligenza artificiale: quando un gruppo di ricerca di Facebook ha creato DeepFace, un sistema di riconoscimento facciale di apprendimento, ha addestrato l’algoritmo su quattro milioni di immagini caricate dagli utenti di Facebook. L’algoritmo è diventato più efficace, raggiungendo livelli di precisione quasi umani.
Per questo motivo i dati sui quali vengono addestrati gli algoritmi sono fondamentali, perché sono direttamente collegati al loro funzionamento. Molti studi hanno oramai sfatato il mito che gli algoritmi sono oggettivi e corretti per natura, avendo gli studio si e i ricercatori analizzato e provato come l’IA può avere una maggiore imprecisione per alcuni gruppi demografici, portando a distorsioni.
Ad esempio, le minoranze etniche e le donne sono particolarmente sottorappresentate nei dati utilizzati per addestrare l’algoritmo; di conseguenza, una tecnologia di riconoscimento facciale basata su tali rappresentazioni funziona meno accuratamente per questi gruppi di individui.
Nel 2019, uno studio federale su oltre 100 sistemi di riconoscimento facciale ha scoperto che essi identificano falsamente i volti afro-americani e asiatici da 10 a 100 volte di più dei volti caucasici. Questa è una differenza enorme. Un simile pregiudizio potrebbe però non derivare da intenzioni malevole, ma essere radicato nel sistema.
SI consideri, inoltre, che secondo un recentissimo studio pubblicato dal National Institute of Standards and Technology (NIST) – che fa parte del Dipartimento del Commercio degli Stati Uniti – gli algoritmi di riconoscimento facciale prodotti prima della pandemia da COVID-19 possono subire tassi di fallimento dell’autenticazione fino al 50% quando i soggetti indossano maschere facciali.
L’uso delle maschere in concomitanza con l’allontanamento sociale si dimostra efficace nel prevenire la diffusione del nuovo coronavirus. Pertanto, un sistema di riconoscimento facciale potrebbe attualmente avere la necessità di condurre operazioni con caratteristiche facciali primarie come il naso e la bocca oscurati alla vista.
Lo studio NIST è stato eseguito secondo lo standard Ongoing Face Recognition Vendor Test (FRVT) stabilito dall’agenzia, a fronte di una serie di foto utilizzate per i parametri di riferimento FRVT dal 2018, ricavate da fotografie di applicazione non mascherate di persone che fanno richiesta di benefici per l’immigrazione e da fotografie di attraversamento delle frontiere di viaggiatori che entrano negli Stati Uniti.
L’applicazione di maschere digitali alle foto dei valichi di frontiera ha permesso di esplorare in modo controllato vari fattori come la forma della maschera, il colore e la quantità di copertura del naso. La tecnica ha anche permesso la produzione di serie di dati molto grandi.
Le fotografie di applicazione non hanno ricevuto maschere, per simulare uno scenario in cui una persona che indossa una maschera cerca di autenticarsi a fronte di una precedente foto di un visto o di un passaporto. Più di 6 milioni di immagini di oltre 1 milione di persone sono state testate contro 89 algoritmi di riconoscimento facciale.
Lo studio ha stabilito che gli algoritmi più accurati hanno subito un tasso di fallimento dell’autenticazione del 5% rispetto alle immagini quando il 70% del volto è stato occluso da una maschera. Altri algoritmi non sono riusciti ad autenticare tra il 20% e il 50% delle immagini.
I falsi negativi possono normalmente essere mitigati da un secondo tentativo di correggere la posa, l’espressione o l’illuminazione. Un falso negativo creato da un soggetto che indossa una maschera, tuttavia, non sarà risolto da un secondo tentativo perché non è possibile rimediare alla precedente condizione di fallimento.
E’ stato anche scoperto che la forma della maschera influisce sulle prestazioni. Le maschere a tutta larghezza che coprono più del viso di una maschera di tipo N95 più rotonda, hanno portato ad un tasso di falsi negativi doppio rispetto alle maschere di tipo rotonde. Lo studio ha preso in considerazione i colori delle maschere blu chiaro e nero, con maschere nere che forniscono tassi di errore più elevati. Alcuni algoritmi non sono stati in grado di rilevare completamente un volto quando il soggetto indossava una maschera.
Il NIST sottolinea che lo studio non tiene conto della possibile regolazione fine degli algoritmi, né dell’effetto della capacità dell’esame umano di correggere i falsi positivi. Tuttavia, mentre il NIST misura solo le prestazioni dell’algoritmo e non formula raccomandazioni per azioni future, i suoi dati suggeriscono che i nuovi algoritmi post-pandemici richiedano lo sviluppo di nuovi dati per consentire ai sistemi di riconoscimento del volto di fornire risultati accurati nell’ambiente pandemico.
In fin dei conti, gli algoritmi non prendono decisioni; queste spettano (o dovrebbero spettare) solo agli umani. L’IA dovrebbe essere pensata come uno strumento, non come una soluzione ai nostri problemi. Se la polizia fosse stata più cauta nel suo uso, il Sig. Williams non sarebbe stato arrestato ingiustamente.
In cima al fascicolo che lo collegava erroneamente al taccheggiatore, per assurdo, era anche stato scritto: “Questo documento non è un’identificazione positiva. È solo una pista investigativa e non è un probabile motivo per l’arresto“. Pertanto, la polizia avrebbe dovuto controllare se il Sig. Williams avesse un alibi, prima di saltare a conclusioni così rapide e arrestarlo davanti a tutta la sua famiglia.
La tecnologia di riconoscimento facciale potrebbe sembrare una magia fantascientifica, ma dovremmo essere consapevoli dei suoi limiti. Questi potrebbero essere minimizzati attraverso la condivisione e l’implementazione delle migliori pratiche per un corretto utilizzo dell’IA. Quando ciò accade, la tecnologia potrebbe aiutarci ad aumentare la precisione e a creare un mondo più sicuro.