Il testo non è ancora legge: bisognerà attendere il voto del Parlamento europeo in primavera. Ma, come riporta il Sole 24 Ore, le pagine disponibili a questo link potrebbero essere quelle definitive e inquadrare così la struttura normativa dell’AI Act, il primo tentativo al mondo di legiferare sull’intelligenza artificiale. “Uno degli scopi della legge sull’AI – si legge nel testo – è quello di garantire un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta, che comprende la democrazia, lo Stato di diritto e la protezione dell’ambiente”.
Leggi anche: L’AI Act è importante, ma il Data Act non è da meno
Quando si può usare la rilevazione biometrica in real time?
Uno degli elementi più importanti dell’AI Act riguarda la rilevazione dei dati biometrici in tempo reale attraverso l’intelligenza artificiale. L’intenzione di Bruxelles è da sempre stata quella di scongiurare uno scenario cinese in cui ogni cittadino può essere spiato, con evidenti violazioni della privacy mediante telecamere e sensori. Viene quindi ribadito nel testo “il divieto di identificazione biometrica in tempo reale da parte delle autorità in spazi accessibili al pubblico, ma con alcune eccezioni” specificate poi nell’AI Act come casi di terrorismo o operazioni di ricerca di persone scomparse.
Come si testa l’AI ad alto rischio?
Un altro aspetto rilevante riguarda il test dell’intelligenza artificiale classificata come ad alto rischio. Così recita il testo dell’AI Act: “La sperimentazione di sistemi di AI ad alto rischio in condizioni reali al di fuori delle sandbox di regolamentazione dell’AI sarà possibile, ma sarà soggetta a una serie di salvaguardie, che includono, tra l’altro, il requisito dell’approvazione da parte dell’autorità di vigilanza del mercato, il diritto per le persone interessate di richiedere la cancellazione dei loro dati dopo la sperimentazione in condizioni reali, il diritto per le autorità di sorveglianza del mercato di richiedere ai fornitori informazioni relative ai test in condizioni reali, compresa la facoltà di condurre ispezioni”.
Una governance per l’AI
Nell’AI Act si fa poi riferimento a una struttura di governance per monitorare l’avanzamento di questa tecnologia. Così si legge nel testo: “Mentre per i sistemi di AI si applicherà il sistema di sorveglianza del mercato a livello nazionale, queste nuove regole per i modelli GPAI prevedono un nuovo sistema più centralizzato di supervisione e applicazione. A tal fine, sarà istituito l’Ufficio AI, una nuova struttura di governance con una serie di compiti specifici per i modelli GPAI e con un forte legame con la comunità scientifica a sostegno del suo lavoro”.
E per ChatGPT?
Per ChatGPT e altri strumenti di AI già presenti sul mercato il testo dell’AI Act stabilisce che “ogni modello GPAI immesso sul mercato prima dell’entrata in vigore delle disposizioni relative ai modelli GPAI (12 mesi dopo l’entrata in vigore) avrà 2 anni di tempo dalla data di entrata in vigore di tali disposizioni (3 anni in totale) per essere reso conforme”.
Le sanzioni previste dall’AI Act
Altro nodo centrale riguarda infine le sanzioni alle Big Tech e alle società che non rispetteranno l’AI Act. Ecco cosa si legge nel testo: “Per l’inosservanza delle disposizioni relative alle pratiche di AI vietate, la sanzione è stata fissata a 35 milioni di euro o al 7% del fatturato annuo, leggermente al di sopra del limite fissato nel mandato rivisto del Consiglio, che era di 35 milioni di euro o del 6,5% del fatturato annuo”.