RICONOSCIMENTO FACCIALE E INTELLIGENZA ARTIFICIALE
Quei metodi che consentono di risalire all’identità di una persona partendo dai suoi tratti somatici, tanto tramite foto e/o video, quanto in tempo reale, sono detti di riconoscimento facciale e si basano su sistemi di Intelligente Artificiale (AI). Accanto al facial recognition in senso stretto, vi sono altri software, analoghi per finalità e infatti ricompresi nel novero delle c.d. tecnologie di sicurezza biometrica, che vanno ad impattare anche con altri dati biometrici, quali, ad esempio, l’andatura, le impronte digitali, il DNA, la voce, il sesso, l’etnia e, addirittura, l’emotività.
Questi sistemi di IA hanno allertato le istituzioni internazionali, europee e nazionali che si occupano di garantire i diritti fondamentali della persona, le quali hanno compreso i pericoli insiti in un utilizzo indiscriminato di metodi di riconoscimento biometrico, anche perché le persone spesso non ne hanno consapevolezza, avvenendo il trattamento a distanza, per lo più in spazi aperti, luoghi in cui gli individui pensano di essere “protetti” dall’anonimato.
Peggy Hicks, dell’Alto Commissariato ONU per i Diritti Umani ha recentemente dichiarato che “l’Intelligenza Artificiale fa già parte delle nostre vite. E non c’è tempo da perdere nella lotta per garantire che sia progettata e utilizzata in modo da rendere la nostra società migliore e più rispettosa dei diritti, piuttosto che uno strumento che consente la discriminazione, invade la nostra privacy e mina i nostri diritti“, esprimendo in poche parole quella che è una delle maggiori preoccupazioni legata all’evoluzione tecnologica ed in particolare ai sistemi di intelligenza artificiale.
L’ONU, infatti, ha stilato un rapporto da cui è emerso come, sia da parte delle aziende, che (cosa questa ancor più grave) da parte dei governi nazionali, non si siano ben colte le grandi criticità dei sistemi di IA, tanto che spesso e volentieri non si pensa neppure a prevedere dei “correttivi” che possano arginare una possibile (quando non attuale) violazione dei diritti delle persone. Nonostante gli effetti dell’uso distorto di questi sistemi sia sotto gli occhi di tutti, l’esempio più eclatante è quello della Cina – paese nel quale il governo ha iniziato a impiegare le tecnologie di facial recognition per controllare e tracciare gli spostamenti della minoranza etnica Uighurs – ci si muove con grande lentezza, circostanza questa che espone nel frattempo milioni di persone a possibili discriminazioni e pregiudizi.
Anche alla luce di quanto sta accadendo nel più popoloso paese del mondo (ma con ricadute anche nel resto del globo, basti pensare alle telecamere cinesi che scaricano, senza dichiararlo, una mole enorme di dati da ogni dove, con pericoli evidenti ai più), l’Alto Commissario ONU per i Diritti Umani ha chiesto una moratoria internazionale “sulla vendita e l’uso dei sistemi di intelligenza artificiale che rappresentano un serio pericolo per i diritti umani”.
A livello europeo, la Commissione Europea, il 21 aprile scorso, nell’ambito della Strategia Europea per l’Intelligenza Artificiale, ha pubblicato la proposta di regolamento sull’approccio europeo all’Intelligenza Artificiale, costituente il primo quadro giuridico europeo sull’IA. Detta proposta, nel valutare i rischi dell’Intelligenza Artificiale, è diretta a salvaguardare i valori e i diritti fondamentali dell’UE, nonché la sicurezza degli utenti (Il nuovo approccio europeo all’Intelligenza Artificiale (camera.it)).
D’altra parte, sempre su questo solco, anche l’European Data Protection Bord (Comitato Europea per la Protezione dei dati) raccomanda di vietare tutti quei sistemi di intelligenza artificiale che utilizzano la biometria per classificare gli individui in gruppi in base a etnia, genere, orientamento politico o sessuale o altri motivi per cui la discriminazione è vietata ai sensi dell’articolo 21 della Carta dei diritti fondamentali, ritenendo altresì che l’uso dell’IA per dedurre le emozioni di una persona fisica sia altamente indesiderabile e dovrebbe essere vietato.
Ora, non potendosi demonizzare a prescindere il ricorso a sistemi di AI, tra i quali rientra sicuramente il riconoscimento facciale, ma dovendosi al contempo evitare derive autoritarie o comunque pericoli per la democrazia, trattandosi di dati biometrici, ossia di dati personali, va da sé che anche le autorità nazionali deputate alla tutela degli stessi abbiamo cominciato a pronunciarsi in merito al riconoscimento facciale.
Per quanto riguarda l’Italia, la nostra Autorità Garante per la Protezione dei Dati personali, nell’aprile di questo anno, ha espresso al Ministero dell’Interno parere negativo all’utilizzo dell’intelligenza artificiale per il riconoscimento facciale, ribadendolo a settembre in due pareri sull’impiego delle body cam per le forze dell’ordine.
Il Garante ha difatti stabilito che “le videocamere indossabili in uso al personale dei reparti mobili incaricato potranno essere attivate solo in presenza di concrete e reali situazioni di pericolo di turbamento dell’ordine pubblico o di fatti di reato. Non è ammessa la registrazione continua delle immagini e tantomeno quella di episodi non critici. I dati raccolti riguardano audio, video e foto delle persone riprese, data, ora della registrazione e coordinate Gps, che una volta scaricati dalle videocamere sono disponibili, con diversi livelli di accessibilità e sicurezza, per le successive attività di accertamento”.
il GPDP ha evidenziato, infatti, come i rischi per le persone riprese possano essere anche molto elevati, spaziando dalla discriminazione, alla sostituzione d’identità, al pregiudizio per la reputazione, all’ingiusta privazione di diritti e libertà, e che l’utilizzo delle body cam nel corso di manifestazioni pubbliche rende estremamente probabile il trattamento di dati che rivelino le opinioni politiche, sindacali, religiose o l’orientamento sessuale dei partecipanti.
Questa impostazione rende ostativa anche l’adozione di impianti di videosorveglianza con riconoscimento facciale per esigenze di ordine pubblico cui invece molte città ed amministrazioni locali vorrebbero fare ricorso, ma ad oggi, per le ragioni sopra spiegate, la valutazione sui costi-benefici, unita all’assenza di una base giuridica del trattamento, rende tali sistemi non utilizzabili. Staremo a vedere se in un futuro, che non si prevede poi così lontano, il bilanciamento tra questi due beni, la sicurezza e l’ordine pubblico da un lato, e la tutela dei dati personali dall’altro (sempre più erosa anche in ragione della scarsa consapevolezza dei cittadini e della “scaltrezza” di BIG TECH), risentirà di valutazioni diverse.
Avv. Paola Mazzocchi