I sistemi di riconoscimento facciale hanno già sollevato diverse perplessità.
Ora, per la prima volta, è proprio l’uso di questa tecnica di intelligenza artificiale che trascina la polizia di Cardiff in tribunale.
A intentare una causa per violazione dei dati personali e limitazione del diritto alla privacy è Ed Bridges, un trentenne impiegato statale residente nel Galles del Sud, che dichiara che l’essere stato ripreso dalle telecamere di sorveglianza in una zona commerciale della città nel dicembre 2017 e l’anno successivo durante un corteo contro le armi sia lesivo dei suoi diritti civili.
Come avviene per le centinaia di migliaia di frequentatori dei luoghi pubblici della città portuale dove dal 2015 è attivo un sistema automatico di riconoscimento facciale AFR Automated Facial Recognition, una volta catturata l’immagine del volto, questa viene messa a confronto con il database delle foto segnaletiche di persone ricercate, scomparse o comunque attenzionate dalla forza pubblica.
Con i sistemi più recenti e sofisticati si riesce a riconoscere una persona anche se questa ha il viso ruotato, o comunque non in visione frontale.
In questi giorni si sono tenuti i primi dibattimenti del processo intentato da Ed Bridges, il quale, spalleggiato da Liberty movimento per i diritti civili, lo ha aiutato ad avviare una campagna di crowdfunding per sostenere le spese legali.
La raccolta a largo spettro di dati biometrici mediante telecamere di sorveglianza, assimilabile al rilevamento di impronte digitali o prelievo di materiale biologico, senza il consenso dell’interessato, lede i diritti universali della persona e viola il principio GDPR, secondo l’accusa.
La tesi della difesa è che i dati setacciati con la tecnica di AFR, una volta superato il confronto con database, quelli senza interesse per la polizia, vengono distrutti.
Il caso prosegue nelle prossime settimane e la sentenza di Cardiff s’inserirà nel panorama problematico della questione.
Appena la settimana scorsa la municipalità di San Francisco, culla dell’hi-tech, ha messo al bando il ricorso al software di riconoscimento facciale per la polizia locale e agenzie investigative. È la prima grande metropoli statunitense a fare questa scelta con il voto della quasi maggioranza del consiglio comunale.
Mentre la questione etica legata ai software di riconoscimento facciale assume rilievo anche sul fronte commerciale.
Il caso di Amazon fa da apripista?
Lo scorso aprile è stata pubblicata la peer-review di una ricerca del MIT Media Labs, denominata Gender Shades, dalla quale emerge che il sistema Rekognition sviluppato da Amazon confonde per il 31% dei casi, i volti femminili di persone di colore con quelli di genere maschile.
Errore non altrettanto marchiano nel caso di maschi bianchi. L’azienda nella presentazione sul blog della ricerca ha minimizzato questo bias il quale ha invece richiamato l’attenzione di diversi esperti di AI che hanno firmato una lettera aperta all’azienda.
Tant’è che l’assemblea degli azionisti che si è tenuta ieri, mercoledì 22 maggio, è stata chiamata ad esprimersi su due proposte in materia.
Primo, se Amazon dovesse smettere di vendere i sistemi di sorveglianza Rekognition alle agenzie federali.
Secondo, se commissionare uno studio indipendente per appurare se il sistema lede ai diritti civili.
Voto negativo per entrambe ma più rilevante è la notizia che lo stesso giorno si è tenuta la prima audizione al Congresso su questi software di sorveglianza di massa, che chiamerà a deporre tutti gli stakeholder: dalle aziende alle forze dell’ordine agli attivisti civili.
È ancora prematuro indicarne l’esito, tuttavia questi sono segnali che confermano che i sistemi di riconoscimento facciale per la tutela dell’ordine pubblico avranno un futuro sempre più controverso.
Rimane fuori la Cina dove da tempo queste tecnologie servono anche per misurare il social credit ovvero il patentino di cittadino affidabile. Si tratta di un complesso meccanismo di monitoraggio del credito sociale attribuito a ciascun individuo attuato dal governo cinese. Per ora su base volontaria per arrivare nel 2020 al dispiegamento obbligatorio del programma che interesserà un miliardo e quattrocentomila cittadini cinesi.
Patrizia Feletig



Articoli recenti
Sottoscritto il Manifesto Menomanels. Copernicani ETS è la prima associazione nazionale a aderire.
Nel panorama politico, sociale e culturale contemporaneo, la predominanza maschile tra gli speaker degli eventi [...]
Apr
Giovedì 2 aprile ore 21:00 – La sfida industriale e realizzativa della Sovranità digitale
Un dialogo copernicano con l’economista Cristina Caffarra e l’esperto di policy EU Innocenza Genna. Il [...]
Mar
Voto via internet: la democrazia non è un atto di fede
Il 16 gennaio 2026 segna un punto di svolta nel dibattito globale sulla sicurezza elettorale. [...]
Gen
Lunedì 2 febbraio ore 21:00 – Data governance e digital sovereignty: come i BRICS definiscono le politiche digitali
I flussi di dati sono centrali nella società dell’informazione odierna ed essenziali per attuare la [...]
Gen
lunedì 19 gennaio alle ore 21.00 – L’astensionismo dagli anni ottanta ad oggi. Cosa sta succedendo?
I Dialoghi copernicani aprono il 2026 con Nando Pagnoncelli lunedì #19 gennaio alle ore 21.00 (zoom e [...]
Gen
Forum Internazionale sulla Democrazia e il Digitale Edizione 2026
La sfida dell’IA per le democrazie liberali Il prossimo 12 e 13 febbraio 2026, nella cornice [...]
Dic
ORBIS e la convergenza tecnologica.
Polis: uno strumento per la democrazia deliberativa. Il progetto ORBIS, cofinanziato dal programma Horizon Europe, [...]
Dic
Oltre l’Algoritmo: L’epilogo di tre anni di ricerca e sperimentazione per disegnare la democrazia digitale in Europa
Il Convegno di Bruxelles con il “nostro” progetto e altri tre finanziati dal programma Horizon [...]
Dic
Lunedì 15 dicembre ore 21:00. Intelligenza umana o artificiale. Chi vince?
Chat GPT e Gemini ci capiscono? Oppure no? Un sondaggio di YouGov commissionato dall’Economist ha [...]
Nov