L’intelligenza artificiale sta ormai entrando nelle nostre vite e c’è una cosa che toccherà tutti indistintamente nel breve periodo, le ricerche online. Abbiamo raggiunto Luciano Floridi, professore e founding director of the Digital Ethics Center alla Yale University per capire i rischi e le opportunità di questo cambiamento epocale.
Google ha lanciato, per ora solo negli Stati Uniti, AI Overwiew. Questa funzionalità è progettata per fornire risposte rapide e riassuntive a domande complesse, organizzando le informazioni. Sempre più persone stanno già iniziando ad usare i motori di intelligenza artificiali, come ChatGPT, per fare ricerche al posto dei comuni motori di ricerca. OpenAI sta progettando Strawberry che promette di prevedere le nostre istanze
È un cambio epocale nella fruizione dei contenuti online perché affidiamo all’intelligenza artificiale la selezione delle informazioni. Fino ad oggi i motori di ricerca come Google si limitano a filtrare le informazioni. Cercando un’informazione, vengono forniti una serie di link che, volendo, possono essere analizzati nel dettaglio sfogliando le varie pagine di risultati ottenuti. Nel prossimo futuro quest’ analisi sarà affidata all’intelligenza artificiale. Non è solo un cambio epocale nella fruizione dei contenuti web. Tutti quei siti che erano abituati a generare traffico grazie a Google stanno tremando.
Intervista a Luciano Floridi
Professore, in poco tempo, grazie all’AI, cambierà il modo di fare ricerche online. I motori di ricerca basati su AI preconfezioneranno una risposta per noi. Stiamo delegando all’AI un bel potere.
È un problema serio e di lunga data. Questo dibattito lo abbiamo fatto già fatto all’inizio di internet quando non esistevano i motori di ricerca. All’epoca c’erano solo delle liste. Se dovevi cercare dei dipartimenti di filosofia del mondo con delle pagine internet, avevi una lista curata a mano. Quando sono emersi i motori di ricerca abbiamo introdotto dei filtri e una significativa distanza tra noi e le informazioni. Un conto è la disponibilità dell’informazione, un conto è l’accessibilità.
Mi può fare un esempio?
Quando ero ragazzo potevo andare alla biblioteca nazionale ma avevo un’accessibilità ridottissima, prendere un libro in prestito era una procedura lunga, si potevano prendere solo pochi libri alla volta. Via via che mettiamo più filtri tra disponibilità e accessibilità delle informazioni la nostra vita è più facile. Tuttavia, abbiamo così tante informazioni oggi che è come non averle. Chi ha tempo per guardare tutto? Adesso abbiamo un mondo che funziona attraverso motori di ricerca che cercano informazioni in un mare di dati, ma di solito a noi non servono tutti quei dati. Noi vogliamo avere una risposta precisa e attendibile il prima possibile. L’AI usata bene può essere un grande strumento di gestione di questa complessità.
Siamo d’accordo ma non esiste un grande rischio a delegare la selezione delle fonti ad un’intelligenza artificiale? Almeno fino ad oggi Google ci propone pagine di risultati tra cui scegliere le informazioni, in futuro non sarà più così.
La gestibilità dovrebbe avere alcune regole. Prima di tutto le informazioni, se voglio, posso comunque raggiungerle. È come se il gestore di un archivio di dati mi dicesse che posso accedere a questa interfaccia e consultare tutto l’archivio. Benissimo ma devo poter anche andare fisicamente in archivio e controllare quel documento. Se questa possibilità non mi viene fornita abbiamo un problema. Il secondo punto è il pluralismo. Di fatto siamo abituati ad usare solo Google come motore di ricerca perché funziona bene. Perché dovrei provarne altri? Nel mondo dei sistemi informativi basati su AI, esiste pluralità al momento. Non c’è solo Chat GPT. Io uso anche Gemini e Claude ma soprattutto POE, un’interfaccia che, a seconda dell’argomento che cerco, fornisce bots formati su specifici argomenti.
«Non avremo un’unica super intelligenza artificiale, il pluralismo ci salverà»
Quindi non arriveremo mai ad avere un’unica super intelligenza artificiale?
Spero che non avverrà. È importante educare al pluralismo. Al momento a farla da padrone sono Google, Microsoft e Amazon ma hanno interessi diversi. Oggi posso verificare l’informazione in vario modo e questo è un bene.
Potrei risponderle che anche all’inizio dei motori di ricerca esistevano Google, Altavista, AOL ma alla fine ne è rimasto uno solo…
Potrebbe succedere di avere un attore egemone. Oggi, ad esempio, se si parla di AI tutti pensano a Chat GPT perché in questo momento è dominante ma una situazione non si ripete sempre allo stesso modo. Penso che avremo più una soluzione simile alla telefonia, con qualche grande player che gestisce il mercato e poi anche piccole realtà.
Mi sembra il solito ottimista…
Guardo la realtà. Oggi le forze in campo sono equilibrate ed hanno anche interessi diversi. Semplificando, alla Microsoft interessa il mondo Office e Cloud ha bisogno del suo bot AI generativo per questo, Google ha interesse a mantenere il suo dominio nel “search”, Amazon ha interessi retail, ognuno arriva sull’AI con un’angolatura di interessi diversi e dico, per fortuna, perché dovrebbe poter permettere una maggiore competizione e pluralismo.
Ci sarà sempre pluralismo sul mercato AI?
In economia si chiama network effect. È successo con le carte di credito. Il negoziante vuole accettare le carte di credito che i clienti hanno in tasca ed i clienti vogliono poter pagare ovunque con la propria carta senza averne dieci in tasca. Perché ogni banca non si crea la propria carta di credito? Perché non conveniente e quel mercato oggi è chiuso, con tre operatori. Nel mondo AI spero che non avverrà la stessa cosa perché la competizione bilancerà questo effetto, avremo vari bot per accedere ad informazioni diverse perché ci sono forze equilibranti che spingono verso direzioni diverse.
«La tecnologia è come la natura, moltiplica le varietà, non sempre le restringe»
Le faccio la domanda che le faranno tutti, l’AI è più un’opportunità o un problema da gestire?
Bisogna cogliere le opportunità nel cambiamento. Immagini di tornare indietro nel tempo quando fu inventato il rasoio elettrico, tutti dicevano, è la fine del rasoio con le lamette, invece non è andata così. La tecnologia è come la natura, moltiplica le varietà, non sempre le restringe. Oggi abbiamo le motociclette e le biciclette ma non abbiamo la carrozza e l’automobile. Nella storia della tecnologia il successo di un’innovazione è un discorso quasi sempre aperto ed è legato a molte variabili che spesso non sono nemmeno legati alla tecnologia, come le preferenze, le scelte, i costi, le varie competizioni etc. Non è vero che la tecnologia nuova elimina sempre la vecchia, è una sciocchezza. Pensi a quanti tipi diversi di penne da scrivere abbiamo. Ogni tanto la tecnologia diversifica e ogni tanto elimina. Il momento che stiamo vivendo con l’introduzione dell’AI potrebbe essere diversificante.
Torniamo ai motori di ricerca. Cosa ne pensa della causa intentata da OpenAI contro il New York Times che avrebbe usato gli articoli del giornale per formare la propria machine learning?
OpenAI è gestita in modo ipocrita. Da un lato sbandiera grandi preoccupazioni, dall’altro compie disastri come appropriarsi di dati non propri, come nel caso del NYT o la copia della voce di Johansson. Spero che venga punita e quel caso faccia storia giuridica. Quello è materiale coperto da diritti d’autore e autorizzazioni, non c’è da discutere.
«OpenAI è gestista in modo ipocrita. Spero venga punita nella causa intentata dal New York Times»
Sì, ma OpenAI dice che ha usato materiale disponibile online… la questione è più complessa
Di cosa stiamo parlando? L’utilizzo ragionevole del materiale online serve proprio a definire quando è usato per scopi non commerciali. Se prendo un’immagine da Google per fare una presentazione in classe è un conto, altro conto è se uso quell’immagine commercialmente, ad esempio per addestrare il mio sistema AI.
Fino a oggi Google non si è mai considerata editore perché si è limitata a riportare notizie di altri. Con la nuova versione AI Overview di Google, le cose cambieranno perché Google creerà dei contenuti originali per dare delle risposte. Cosa cambia?
Il concetto di editore lo abbiamo sviluppato per ragioni di assegnazione della responsabilità dei contenuti. Se qualcosa va male, se c’è una denuncia, se c’è stata disinformazione con chi me la prendo? Con l’AI la responsabilità viene riallocata e distribuita, dal disegno degli algoritmi ai dati sui quali sono esercitati, dallo sviluppo del servizio, all’uso finale. Siamo arrivati ai limiti della nostra competenza attuale, non sappiamo ancora come risolvere la questione. L’esigenza dell’attribuzione della responsabilità resta forte ma ricordiamoci che il controllo resta solo umano.
Cosa intende?
Per esempio, i bot generativi possono essere graduati. Se faccio una domanda ed il bot non è stato esercitato su quell’argomento, può rispondere “non lo so”. Si chiama “temperature del sistema”. C’è un sistema “freddo” che rimane su quello che sa, e poi un sistema che può essere gradualmente sempre più “caldo” per spingere l’AI a dare risposte di cui non è certo. Il mio bot , per esempio, è “gelido”! Se chiedete “cosa pensa Floridi della guerra in Ucraina”, non risponderà perché non ha informazioni in merito. Questa impostazione è una decisione umana. Dico questo perché usare l’AI non è come sguinzagliare un cane e non sappiamo cosa succederà.
«Il tema della responsabilità dell’AI è cruciale e non sappiamo come gestirlo»
Quindi come potrebbe essere affrontato il tema della responsabilità quando vengono usati strumenti legati all’AI?
Potremmo usare la strict liability (responsabilità oggettiva) che è già usata nel mondo dei beni di largo consumo. Se lei compra un frigorifero e non funziona, la responsabilità di default è del produttore. Starà a lui dimostrare che il cliente ha fatto un uso improprio, ma a priori la responsabilità è del produttore. Potremmo considerare lo stesso sistema anche con chi offre un servizio generativo AI. A quel punto forse starebbero attenti all’output prodotto dall’AI.
Professore, lei è stato appena chiamato a guidare la commissione tecnica della Camera su AI. Di cosa si tratta?
Abbiamo appena iniziato. Sono felice di coordinare un bellissimo gruppo di lavoro che ha l’obiettivo di valutare tecnicamente una serie di progetti per l’automazione della gestione delle informazioni all’interno della Camera. Ci sono vari obiettivi. Lei pensi che la Camera dei deputati gestisce un flusso di informazioni incredibile e se gestiamo al meglio questo flusso con l’AI miglioreremmo l’accessibilità e la fruibilità. Quindi gli stessi parlamentari potrebbero avere accesso a migliori informazioni. E sarebbe utile anche per la cittadinanza che potrebbe avere un’accessibilità agevolata a quello che avviene nel Parlamento
Mi sembra un’innovazione notevole nella politica…
Ha ragione. L’Italia è tra i primi Paesi al mondo a dotarsi di una commissione con l’obiettivo di utilizzare l’AI al servizio della politica e questo sarà il futuro. Abbiamo un’enormità di dati da gestire ed oggi sarebbe impensabile non usare l’AI per la gestione della raccolta dei rifiuti, il consumo dell’elettricità, l’ottimizzazione del traffico e dei parcheggi, una tassazione più equa, etc. Cosa succede se aumento l’Iva di mezzo punto percentuale? Che ripercussioni avrà sui consumi, sui redditi, eccetera…? Altro esempio: l’Emilia-Romagna è tra le prime regioni al mondo ad aver sviluppato processi di modellizzazione per simulare l’impatto di determinate decisioni. Oggi tutto questo è possibile con l’AI, che assiste la politica per prendere decisioni più efficaci ed efficienti. Un’Italia all’avanguardia. Queste sono storie interessanti che andrebbero raccontate.