Una legge storica, la prima al mondo che legifera su una tematica ancora difficile da comprendere, soprattutto nelle sue ripercussioni sulla società, l’economia e la cultura. L’AI Act è stato approvato nei giorni scorsi dal Parlamento Europeo. Per ragionare di scenari, tenendo conto soprattutto dell’aspetto giuridico, ci siamo rivolti a Giusella Finocchiaro, Professoressa ordinaria di diritto di internet e di diritto privato all’Università di Bologna, nonché autrice di Intelligenza artificiale. Quali regole? (edito da il Mulino). «Le regole dovrebbero andare di pari passo con gli investimenti», ci ha spiegato. Ma come mai sono le Big Tech per prime a chiederle? «Le regole servono a tante cose. Ad esempio, a rassicurare. E se il consumatore è rassicurato, allora compra più facilmente».
L’Europa legifera su un tema centrale. Lo fa soprattutto pensando alle Big Tech estere?
Non c’è dubbio che l’Europa investa molto meno di USA e Cina in ricerca e tecnologia. Qui mancano i grandi player. Molti dicono che, non disponendo di tecnologia, produciamo regole. C’è senz’altro del vero in questo, ma la nostra cultura europea ci porta a essere molto attenti a diritti e valori fondamentali. Siamo più spinti a rifletterci rispetto ad altre aree del mondo.
L’AI Act è legge. Che percorso è stato?
La discussione europea sull’AI è cominciata nel 2018. Nel 2024 ci sarà la formale adozione e la maggior parte delle disposizioni entrerà in vigore nel 2026. Sono stati anni di condivisione democratica di un percorso. Non ritengo sia un periodo di tempo sprecato. Anzi, hanno prodotto cultura, da cui mi auguro nasca un coordinamento internazionale.
Nel suo libro introduce l’AI come una tecnologia tutt’altro che nuova.
In effetti non è una novità dal punto di vista tecnologico. Se ne cominciò a parlare con Turing. Ci si può interrogare sul perché solo adesso sia divenuta alla portata di tutti. La grande differenza rispetto al secolo scorso è che sono disponibili i dati e le informazioni di cui si nutre l’intelligenza artificiale. Credo sia la motivazione più importante.
Leggi anche: L’etica dell’intelligenza artificiale. «Non serve l’allarmismo dei mercanti di paura, le regole ci sono già»
Torniamo al tema dell’AI Act. Nel suo libro scrive che c’è un’urgenza di regolare. In che senso?
Le regole dovrebbero andar di pari passo con gli investimenti. Dovremmo investire di più in ricerca e tecnologia in Europa, sostenendo startup e imprese. È una parte del mosaico che ci manca. Parlo di urgenza di regolare riferendomi sia ai capi di Stato e di governo, sia ai protagonisti come Elon Musk e Sam Altman. È un’urgenza sentita da tutti, anche se alcune regole già ci sono. Mi riferisco a sentenze che applicano regole che non erano state scritte per l’AI.
Lei ha parlato di approccio antropocentrico dell’AI Act
L’AI Act prevede che l’AI e i programmi di intelligenza artificiale siano classificati secondo quattro livelli di rischio: inaccettabile, alto, basso, minimo. I programmi con rischio inaccettabile non sono ammessi nel mercato europeo. Si cita spesso il social scoring, presente in Cina, ovvero un sistema per attribuire un punteggio sociale ai cittadini in base al loro comportamento. Sulla base di questo score le persone potrebbero o non potrebbero accedere a determinati servizi. Questo è un esempio di cosa rappresenta un sistema di AI con rischio inaccettabile: è lesivo della dignità della persona.
Prendiamo la situazione più estrema. Di chi sarebbe la responsabilità se un’AI dovesse far danni o, peggio, uccidere?
Si guarderebbe anzitutto al produttore del sistema di AI. Abbiamo norme sulla responsabilità del produttore, applicabili in questo caso. A sua volta potrà rivalersi eventualmente su chi ha scritto il programma, su chi non l’ha testato a sufficienza. Ma certamente è il produttore il primo soggetto a cui chiedere un risarcimento.
Mesi fa il New York Times ha fatto causa contro OpenAI per presunta violazione del diritto d’autore. Accusa la società di Sam Altman di aver allenato l’intelligenza artificiale su milioni di suoi articoli. Dovremmo rivedere il concetto di diritto d’autore nell’AI?
Il diritto d’autore è stato già applicato in più di un caso all’AI. Ci sono molte sentenze nel mondo che si sono occupate e hanno detto che l’opera creata con l’AI non può essere attribuita all’AI come autrice, ma alla persona umana che se ne è servita. Il diritto d’autore che abbiamo è applicabile. Il problema che si pone è come ripensare a un concetto di diritto d’autore più ampio, che comprenda anche l’AI. L’idea di autore che abbiamo risente del romanticismo: è una persona, un genio che crea. Ma oggi ci sono tanti modi per creare.
Se l’UE ha adottato un approccio antropocentrico sull’AI, come ci si muove Oltreoceano?
Nell’estate 2023 il presidente Biden ha emesso un comunicato in cui indicava i princìpi per governare l’AI, condivisi con i produttori del settore. Ciò ha poi portato all’ordine esecutivo di ottobre. In questo caso il regolatore, prima di emanare i princìpi, li ha condivisi con le imprese. C’è stata un co-regolazione. E loro possono agire in tal modo perché hanno Google, Microsoft e OpenAI.
Quest’anno Facebook ha compiuto 20 anni. Eppure ai tempi Zuckerberg non girava il mondo chiedendo ai governi di regolamentare le piattaforme. Perché la situazione è differente con l’AI?
Le regole servono a tante cose. Servono a rassicurare, ad esempio. E se il consumatore è rassicurato, allora compra più facilmente. Io ci leggo un’azione di marketing. Moti anni fa quando si cominciò a regolare internet, Bruxelles aveva scritto nei documenti di studio che occorreva creare la fiducia affinché il commercio elettronico potesse svilupparsi. Se l’AI invece farà sempre più paura verrà tenuta distante.