Due casi eclatanti mostrano i rischi derivanti dalla tecnologia di OpenAI. L’intervista alla legale. «Credo che il far west durerà ancora poco»
Quando la diffamazione passa per un sistema di intelligenza artificiale, come ChatGPT, chi ne è responsabile? Alla luce dei recenti casi di diffamazione che hanno coinvolto Brian Hood, sindaco di Hepburn Shire, in Australia, e Jonathan Turley, professore di diritto alla George Washington University, abbiamo chiesto all’avvocato Caterina Malavenda di analizzare su chi potrebbe ricadere la colpa in Italia. Ma, prima, facciamo un passo indietro.
Leggi anche: ChatGPT e AI per fabbricare fake news? In Cina si rischia l’arresto. Primo caso nella provincia di Gansu
Cosa è successo a Hood e Turley
Brian Hood è il sindaco di Hepburn Shire, un paese che si trova vicino Melbourne, in Australia. Tramite alcuni elettori è venuto a conoscenza del fatto che ChatGPT lo avesse indicato come colpevole di uno scandalo di corruzione all’estero che aveva coinvolto una filiale della Reserve Bank of Australia nei primi anni del 2000. L’errore commesso dall’intelligenza artificiale è, probabilmente, dovuto al fatto che Hood avesse effettivamente lavorato per una filiale della banca, la Note printing Australia.
Ma quello che è stato male interpretato dal software è il fatto che Hood sia stata la persona che ha denunciato alle autorità le tangenti effettuate a funzionari stranieri, per aggiudicarsi dei contratti per la stampa di valuta. I suoi avvocati, che hanno confermato non sia mai stato accusato di alcun reato, hanno inviato una lettera a OpenAI per correggere l’errore lo scorso 21 marzo, dandogli 28 giorni di tempo prima di fare causa per diffamazione. Ad oggi non si ha notizia se la causa sia effettivamente stata avviata.
Situazione completamente diversa è quella accaduta al professor Turley, docente alla George Washington University, Università privata negli Stati Uniti. Il professore è stato inserito da ChatGPT tra gli studiosi di diritto colpevoli di aver molestato sessualmente qualcuno. L’errore è stato scoperto da uno stesso collega di Turley. Secondo l’intelligenza artificiale, il professore avrebbe molestato verbalmente e tentato di molestare sessualmente una studentessa durante una gita di classe in Alaska, citando un articolo del Washington Post del 2018 come fonte. Ma dell’articolo citato non c’è traccia e lo stesso Turley ha dichiarato di non avere mai molestato nessuno, come riportato proprio in un articolo del Washington Post, né di essersi mai recato in Alaska.
Cosa succederebbe in Italia?
Avvocato e giornalista pubblicista, Caterina Malavenda si occupa di problematiche connesse all’informazione e giornalismo assistendo da anni organi di stampa di rilevanza nazionale e società radiotelevisive, oltre che testate di minore tiratura, in processi penali e civili. Scrive articoli di diritto per testate specializzate e generaliste ed è docente in corsi di diritto pubblico e procedura penale destinati alla formazione dei giornalisti, sia a livello universitario sia professionale. Tra le sue pubblicazioni ci sono “Diritto e processo penale”, “Abuso di mercato e informazione economica”, e “Le regole dei giornalisti”. La abbiamo intervistata per capire che cosa potrebbe succedere in Italia, alla luce dei casi già accaduti all’estero.
Avvocato, chi risponde davanti alla giustizia italiana di casi di diffamazione che potrebbero verificarsi tramite il sistema di intelligenza artificiale ChatGPT?
L’intelligenza artificiale si chiama così perché non è dotata di capacità di discernimento, visto che automaticamente, e a richiesta, genera contenuti, pescando fra gli innumerevoli dati cui può attingere e assemblando un testo che, perciò, può contenere errori, sviste o l’attribuzione di condotte riprovevoli a chi non le ha mai tenute. Chi ne rimane vittima, perciò, non può agire contro ChatGPT, priva di personalità giuridica autonoma, ma contro chi si è servito del suo contributo, divulgando il testo fornito senza le necessarie verifiche. Così come il giornalista risponde degli articoli che scrive ove non abbia controllato le fonti, allo stesso modo, chi mette in circolazione passivamente il prodotto assemblato risponde dei danni che questo può generare.
In Italia si possono riscontrare casi simili avvenuti con altri tipi di software?
Il nostro Paese è dotato di un solido sistema giuridico che può far fronte a casi in cui i diritti vengono violati, applicando per analogia, quando questo è consentito, le norme esistenti a ipotesi inedite. Bisogna rammentare, a tal proposito, che non possono essere applicate analogicamente le norme penali, quindi si può punire la diffamazione, in sede penale, ma solo se si identifica con certezza il responsabile “umano” della divulgazione del prodotto informatico, che aveva per legge l’obbligo di controllarlo, indipendentemente dal software che lo ha generato. Quindi chi lo ha firmato, facendolo proprio o, nel caso di prodotti editoriali, il direttore responsabile del periodico o del sito su cui è comparso. In sede civile, invece, può essere chiamato a rispondere dei danni anche il titolare del sito o l’editore del periodico che ha diffuso il testo incriminato.
Quali potrebbero essere le conseguenze per gli sviluppatori del software?
Chi si avvale dell’intelligenza artificiale – al momento e fino a quando l’uso sarà gratuito – non stipula alcun accordo con il fornitore, quindi con chi mette a disposizione e sviluppa il software. Tuttavia, credo che il far west durerà ancora poco, visto che in Europa si sta lavorando per promulgare una legge che regoli la materia e visto che, se si dovessero stipulare dei contratti per l’uso di quei prodotti, le parti avranno cura di regolare le rispettive responsabilità. Allo stesso tempo, immagino che una parte di responsabilità cadrà sul fornitore, ammesso che abbia la concreta possibilità di intervenire a monte sulle fonti cui il software attinge, ma mi pare improbabile. Una parte, credo quella prevalente, cadrà su chi si avvarrà, a suo rischio e pericolo, dell’intelligenza artificiale, oltre quello che potrebbe essere un supporto tecnico, lasciandogli confezionare liberamente il prodotto finale.
In che modo la giustizia potrebbe incidere per arginare il fenomeno?
Come al tempo in cui Internet era parso il paradiso delle libertà, con l’accesso libero e indiscriminato e la diffusione capillare di tutte le informazioni, salvo poi doversi ricredere e correre ai ripari, anche oggi è piuttosto difficile immaginare norme che possano davvero azzerare i rischi che questa nuova frontiera presenta. Il nostro Garante è intervenuto meritoriamente a tutela soprattutto dei minori, ad esempio, ma subito si sono messi in evidenza i limiti – per così dire – territoriali del provvedimento che limitava l’uso del software, facilmente aggirabili ricorrendo a siti extranazionali.
Quali potrebbero essere gli altri tipi di reato che potrebbero configurarsi con ChatGPT?
Al di là della diffamazione, cui è possibile aggiungere, ma solo in sede civile, anche la lesione del diritto all’immagine o alla identità personale, è ipotizzabile, ad esempio, la violazione del diritto d’autore, il cosiddetto “plagio”, che è un reato, quando, nel testo o nell’immagine assemblate, siano presenti elementi caratterizzanti estrapolati da opere tutelate. È successo, ad esempio, che la società incaricata di fornire un logo stilizzato ad una nota trasmissione televisiva ne abbia fornito uno realizzato dall’intelligenza artificiale, il cui elemento forte e caratterizzante era costituito da un logo, già esistente, subito individuato dal suo autore che ha agito a tutela del suo diritto. Per fare un esempio concreto, è come se il software, richiesto di fornire un testo in cui si parli di un’unione sentimentale contrastata dal potere ed infine trionfante, traesse spunto e stralci dai “Promessi sposi”.