Via libera da Strasburgo. Se approvata la legge vieterà il riconoscimento facciale nei luoghi pubblici
Il Parlamento europeo, primo al mondo, approva il regolamento sull’intelligenza artificiale. L’Eurocamera ha dato semaforo verde ieri, 14 giugno, alla sua posizione negoziale sul regolamento dell’intelligenza artificiale con 499 voti a favore su 620 votanti, 28 i voti contrari e 93 astenuti. Da qui in avanti il Parlamento Europeo darà il via ai negoziati tra Consiglio degli Stati Membri e i singoli governi dell’UE per la stesura del testo definitivo relativo all’AI Act che mira a limitare i rischi dei sistemi d’intelligenza artificiale generativa come ChatGPT, e molto altro. Per fine anno potrebbe arrivare l’approvazione finale dall’Europa, l’entrata in vigore è prevista a partire dal 2024.
Cosa è e cosa contiene l’AI Act
Il 11 maggio 2023 la Commissione Europea ha approvato in prima battuta l’ AI Act. Il documento suddivide in una serie di categorie – tra le altre cose – gli usi dell’intelligenza artificiale: basso rischio, alto rischio e rischio inaccettabile. Gli usi a “rischio inaccettabile” sono vietati, quelli ad “alto rischio” invece sono soggetti a regolamentazione. La legislazione sull’AI definita dall’UE si basa sul rischio affinché la tecnologia sia conforme con i diritti e i valori dell’Unione, ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale.
Gli obblighi per operatori e fornitori varieranno a seconda del livello di rischio che l’AI può generare. Saranno dunque vietate tutte le soluzioni basate sull’intelligenza artificiale il cui rischio è classificato come inaccettabile.
Quali sono le pratiche di AI vietate
L’AI Act prosegue con le pratiche di AI vietate, cui è dedicato il Titolo II del documento. Nella relazione della bozza si legge che “Il titolo II stabilisce un elenco di pratiche di IA vietate. Il regolamento segue un approccio basato sul rischio, differenziando tra gli usi dell’IA che creano: i) un rischio inaccettabile; ii) un rischio alto; iii) un rischio basso o minimo.
Tra i sistemi AI considerati ad alto rischio i deputati hanno voluto introdurre anche quelli che generano “danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente” e quelli che vengono utilizzati per influenzare gli elettori e l’esito delle elezioni nonché i sistemi di raccomandazione usati dai social media con più di 45 milioni di utenti. In sostanza, l’elenco delle pratiche vietate di cui al titolo II comprende tutti i sistemi di IA il cui uso è considerato inaccettabile perchè contrario ai valori dell’Unione europea
Nel dettaglio sono vietati:
– Sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
– sistemi di identificazione biometrica a distanza “a posteriori”, con l’unica eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
– sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, sesso, razza, etnia, cittadinanza, religione, orientamento politico);
– sistemi di polizia predittiva (basati su profili, ubicazione o comportamenti criminali passati);
– sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni scolastiche; e lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Riconoscimento facciale, quando è vietato?
Il tema dell’impiego della tecnologia a riconoscimento facciale combinata con l’AI è centrale, il testo passato ieri lo vieta nei luoghi pubblici in senso assoluto. Nel dettaglio alla lettera d) del paragrafo 2, si legge infatti che: “l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi:
i) la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi;
ii) la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone fisiche o di un attacco terroristico;
iii) il rilevamento, la localizzazione, l’identificazione o l’azione penale nei confronti di un autore o un sospettato di un reato di cui all’articolo 2, paragrafo 2, della decisione quadro 2002/584/GAI del Consiglio”.
In altri termini, sarebbe vietato qualunque impiego di AI connessa al riconoscimento facciale in luogo pubblico, salvo ipotesi in cui questa non sia necessaria per ricerca di persone scomparse o potenzialmente tali; per le ipotesi di impiego in caso di calamità naturali o per attacchi terroristici o per procedere penalmente nei confronti di persone nei confronti delle quali sia stato emesso un mandato di arresto europeo.
Il Titolo II è dedicato alle strutture ad alto rischio “per la salute e la sicurezza o per i diritti fondamentali delle persone fisiche. In linea con un approccio basato sul rischio, tali sistemi di IA ad alto rischio sono consentiti sul mercato europeo subordinatamente al rispetto di determinati requisiti obbligatori e ad una valutazione della conformità ex ante”. Entro l’anno l’Unione Europea potrebbe varare la prima legge al mondo che regola l’intelligenza artificiale.