Questo articolo è stato pubblicato da questo sito
Una data che doveva arrivare. Un po’ lontana dal clamore della scorsa estate, momento in cui l’Unione europea ha dato il via ufficiale all’AI Act, il regolamento comunitario sull’intelligenza artificiale. I regolamenti, però, hanno bisogno di tempo per diventare applicabili in toto. “Anticipare l’applicazione dei divieti è importante per tenere conto di rischi inaccettabili e per avere un effetto su altre procedure” si legge proprio nella normativa.
Dal 2 febbraio 2025 si applicheranno negli stati membri il Capitolo I e il Capitolo II del regolamento, che includono le proibizioni sui sistemi di AI a rischio inaccettabile. Vietati d’ora in poi i sistemi di intelligenza artificiale che potrebbero indurre le persone a compiere scelte attraverso tecniche manipolatorie; inutilizzabili i sistemi che sfruttano vulnerabilità di persone o gruppi di persone (come ad esempio la condizione di disabilità, o quella economica); vietati i sistemi di polizia predittiva, e quelli che si basano su pregiudizi etnici o comportamentali.
Vietati anche i sistemi di intelligenza artificiale che creano o ampliano banche dati di riconoscimento facciale mediante la tecnica dello scraping, l’estrazione di dati da pagine web, che attraverso il caso Clearview AI si è dimostrata in tutta la sua invasività e problematicità. La celebre azienda statunitense è stata multata dalle autorità garanti per la protezione dei dati personali di Francia, Regno Unito e Italia negli scorsi anni per aver violato le leggi sulla protezione dei dati personali dei cittadini. Il database creato da Clearview AI per far funzionare un sistema di riconoscimento facciale si basa infatti su una vasta base di immagini (incluse quelle dei social media) raccolte da Internet senza il consenso degli utenti. Il garante privacy italiano ha multato l’azienda nel 2022, obbligandola a pagare una sanzione da 20 milioni di euro. Al momento però, in Italia come anche negli altri due paesi europei, l’azienda non si è affrettata a pagare quanto dovuto.
Il nodo sulla sorveglianza biometrica negli spazi pubblici
Dal 2 febbraio saranno vietati anche quei sistemi che possono inferire le emozioni di una persona sul posto di lavoro o nelle scuole e, dulcis in fundo, i sistemi per l’identificazione biometrica remota in tempo reale in spazi pubblici. Su questi ultimi però le eccezioni di utilizzo da parte delle forze dell’ordine previste dall’AI Act sono molte, e i rischi che ne derivano sono posti all’attenzione dell’Unione europea e dei singoli stati membri da anni da numerose associazioni che si battono per i diritti digitali. Sin dal 2020 infatti, la campagna Reclaim Your Face – formata da decine di associazioni europee – chiedeva a gran voce il completo divieto di utilizzo di sistemi di riconoscimento facciale nei luoghi pubblici poiché il rischio sorveglianza di massa sarebbe dietro l’angolo.
In Italia, a seguito anche di questa campagna e di un’inchiesta di Wired arrivata direttamente sulla scrivania del garante privacy che aveva intimato lo spegnimento del sistema installato dal Comune di Como nel 2021, è stata introdotta una moratoria che vieta ai comuni e ai privati di avvalersi di tecnologie simili e che scadrà a fine anno. Per quanto riguarda le forze dell’ordine, al momento la Polizia di Stato italiana ha a disposizione il sistema Sari nella sua modalità “Enterprise”: se in possesso di un girato o di un’immagine (anche di un frame estrapolato da un video) il funzionario di polizia può sottoporlo al sistema di riconoscimento facciale e cercare all’interno della banca dati Afis una corrispondenza, che gli permette di dare un nome e un cognome a un volto.