Categorie
Sicurezza Informatica

Il Parlamento Europeo chiede il divieto del riconoscimento facciale automatico tramite Intelligenza Artificiale.

Tempo di lettura: 4 minuti.

Il Parlamento Europeo ha invitato i legislatori degli Stati membri a vietare il riconoscimento facciale automatizzato negli spazi pubblici e ad applicare rigorose garanzie per l’uso dell’intelligenza artificiale da parte delle forze di polizia.

Il tema del riconoscimento facciale, e soprattutto di quello automatico, è scottante dal punto di vista della privacy. In questo caso ad essere sotto inchiesta è l’attività legata al riconoscimento facciale eseguito automaticamente tramite Intelligenza Artificiale e le azioni intrapresa a valle del riconoscimento stesso.

I deputati del Parlamento Europeo sono stati molto chiari su un punto, i database privati ​​di riconoscimento facciale dovrebbero essere vietati. Già perché in alcuni casi questi dati sono gestiti da Privati, ma andiamo con ordine.

La risoluzione votata non è vincolante ma i numeri dei deputati a favore è schiacciante 377 e non può passare inosservata. I contrari sono stati 248 con 62 astenuti.

In generale il principio che i deputati vorrebbero applicare è quello secondo il quale i cittadini dovrebbero essere monitorati solo quando sono sospettati di un crimine. La preoccupazione legata all’utilizzo dell’IA, senza una supervisione umana, si fa strada perché già ci sono stati casi di discriminazioni. Ci sono stati infatti casi nei quali i sistemi di identificazione automatici, basati sull’IA, hanno classificato erroneamente persone appartenenti a gruppi etnici come nel caso di Facebook documentato lo scorso settembre, gli errori inoltre aumentano percentualmente quando si tratta di soggetti non maschi e bianchi come ben evidenziato dal MIT (Massachusetts Institute of Technology) già 3 anni fa.

Anche per questo, secondo i deputati europei, gli algoritmi dovrebbero essere trasparenti, tracciabili, sufficientemente documentati, e dovrebbero utilizzare risorse open source ove possibile.

Cosa afferma la risoluzione sull’utilizzo dell’Intelligenza Artificiale?

La risoluzione afferma che: “i Soggetti che utilizzano sistemi di riconoscimento basati sull’intelligenza artificiale devono porre rimedio” e inoltre “una persona ha il diritto di non essere sottoposta a una decisione che produca effetti giuridici che la riguardano, o incidano su di essa in modo significativo, che si basi unicamente su un trattamento automatizzato di dati”.

Stavolta non si può dire che la politica europea ci sia andata leggera anche perché, come anticipato, si invitano tutte le autorità Europee competenti a vietare i database privati ​​di riconoscimento facciale (alcune forze dell’ordine in Europa stanno utilizzando quello di Clearview AI per esempio). Le stesse autorità indicano come da vietare anche “le attività di polizia predittiva basata su dati comportamentali”

L’approvazione della risoluzione segue di fatto alcune richieste simili emerse la scorsa estate da parte degli uffici regolatori UE in materia di privacy. Il Comitato Europeo per la protezione dei dati e il Garante Europeo della protezione dei dati, infatti, hanno affermato che la Commissione Europea dovrebbe vietare ai sistemi di intelligenza artificiale di utilizzare il riconoscimento biometrico per classificare le persone “in gruppi basati su etnia, genere, orientamento politico o sessuale” o qualsiasi altra classificazione che potrebbe portare a discriminazioni.

In linea con questo principio ad aprile scorso, la Commissione Europea ha proposto un disegno di legge chiamato Artificial Intelligence Act, che introdurrebbe un ampio quadro normativo per l’IA. Tra le misure c’è il divieto di identificazione biometrica a distanza (come il riconoscimento facciale) negli spazi pubblici a meno che non venga utilizzata per affrontare reati gravi, tra cui terrorismo e rapimenti. Anche in questi casi dovrebbero essere gli operatori umani a prendere le decisioni finali.

Ma non finisce qui infatti c’è un ulteriore indicazione della Commissione Europea.

Riconoscimento automatico alle frontiere

Anche il riconoscimento automatico alle frontiere fa parte di questa risoluzione. In particolare si chiede la sospensione del progetto iBorderCtrl.

Si tratta di un progetto finanziato dall’UE che prevede lo sviluppo di un metodo per accelerare il traffico alle frontiere esterne dell’UE e aumentare la sicurezza, il tutto utilizzando un sistema automatizzato in grado di rilevare le “bugie” dei viaggiatori.

Il sistema è stato impostato in modo che i viaggiatori utilizzino un’applicazione online per caricare le immagini del passaporto e del visto, quindi una webcam per rispondere alle domande di una guardia di frontiera animata da computer (un avatar di fatto), personalizzata in base al genere, all’etnia e alla lingua del viaggiatore. L’acquisizione di questi dati, comprese le micro espressioni facciali dei viaggiatori stessi, dovrebbe consentire di capire se l’intervistato sta mentendo o meno.

Seguiremo, come sempre, lo sviluppo di tutte le attività su questo tema e soprattutto come e se i singoli Stati, a partire dall’Italia, seguiranno le indicazioni degli organi Europei.

E’ possibile visionare tutta la risoluzione del Parlamento Europeo a questo indirizzo  anche in lingua italiana, ritengo infatti importante che ognuno si documenti su questi fatti per farsi un’idea degli scenari che ci attendono.

Concludo riportando integralmente il punto 18 di questa risoluzione, a mio avviso interessante anche per il tema degli “Appalti” su queste tecnologie.

Il Parlamento Europeo quindi “esorta le autorità di contrasto e giudiziarie a identificare e valutare le aree in cui potrebbero risultare vantaggiose soluzioni di IA mirate e a scambiare pratiche migliori sulla diffusione dell’IA; chiede l’adozione da parte degli Stati membri e delle agenzie dell’Unione di una procedura di appalto appropriata per i sistemi di IA ove utilizzati per le attività di contrasto o in ambito giudiziario, al fine di assicurare il rispetto dei diritti fondamentali, e della legislazione applicabile, anche per garantire che la documentazione del software e gli algoritmi siano disponibili e accessibili per la revisione da parte delle autorità di vigilanza competenti; chiede, in particolare, norme vincolanti che impongano la divulgazione in merito a partenariati pubblico-privati, contratti e acquisizioni e delle relative finalità; sottolinea l’esigenza di fornire alle autorità le risorse necessarie, nonché di assicurare loro la competenza richiesta per garantire il pieno rispetto dei requisiti etici, giuridici e tecnici associati alla diffusione dell’IA.

Direi che il Parlamento Europeo su questo tema ha le idee chiare, si tratta ora di farle applicare a tutti gli Stati membri.


Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version