Nato a Londra nel 1947, Geoffrey Hinton ha dedicato la sua carriera alla ricerca e allo sviluppo di tecniche avanzate di machine learning, influenzando profondamente il settore. Professore emerito all’Università di Toronto ed ex ricercatore presso Google, è noto per aver lavorato all’algoritmo backpropagation e per la creazione di AlexNet, una rete neurale che ha segnato un punto di svolta nel riconoscimento delle immagini. Premiato con il prestigioso Premio Turing nel 2018, Hinton continua a essere una figura centrale nella comunità scientifica globale. A Toronto, durante il summit Collision, ha tenuto un incontro ristretto a cui StartupItalia ha partecipato.
Possiamo controllare l’AI?
La sala del Collision era gremita per ascoltare cosa il prof. Hinton avesse da dire su un tema così scottante che divide la comunità scientifica e non solo. Proprio lui che un anno fa ha lasciato Google scrivendo su Twitter «me ne sono andato per parlare dei pericoli dell’AI in modo indipendente» aggiungendo poi che Google ha agito fino ad oggi in modo responsabile. Durante il summit di Toronto, il prof. Hinton è tornato sul tema.
«Vi dico la verità su questa storia. Ho lasciato Google perché ho 75 anni e volevo prendermi una pausa per guardare un sacco di Netflix». La sala scoppia in una risata. Poi aggiunge: «Ma anche quando ho lasciato Google ho pensato che avrei potuto mettere in guardia sulla minaccia esistenziale a lungo termine. Le AI diventeranno sempre più intelligenti e potrebbero sbarazzarsi di noi, non è fantascienza, è reale».
Le paure di Geoffrey Hinton
Tra tutte le minacce che il prof. Hinton vede all’orizzonte, quello sulla sorveglianza di massa si colloca al primo posto. «L’AI sarà molto brava a sorvegliare e aiuterà i regimi autoritari a rimanere al potere». La governance e la regolamentazione sono le uniche armi per tentare di gestire il problema. Gli Stati Uniti sono molto più indietro rispetto all’Europa sulla legislazione legata all’AI ma il prof. Hinton non è ottimista nemmeno parlando del vecchio Continente. «Nella legislazione europea, c’è una clausola esplicita che dice semplicemente che nessuno di questi regolamenti si applica in ambito militare. I dipartimenti della difesa non permetteranno mai ai Governi di regolamentare un settore così sensibile per la geopolitica».
Quello che succederà sarà identico a quello che è accaduto dopo la Prima Guerra Mondiale con le armi chimiche. Le gente si è resa conto che erano terribili, c’è stato bisogno della convezione di Ginevra e non è bastato. «È abbastanza chiaro che faremo uso di armi autonome fino a quando non ci renderemo conto di quanto siano terribili, sono certo di questo». In realtà questa non è fantascienza, è già realtà. Un’inchiesta di Yuval Abraham per +972 Magazine ha rivelato che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavander. Secondo quanto riportato, questi sistemi possono identificare gli obiettivi militari senza l’intervento umano.
Il grande problema nel delegare decisioni all’intelligenza artificiale che, secondo molti, sarà più affidabile perché basata su molte informazioni, sta nell’imprevedibilità. Il prof. Hinton spiega al pubblico che, mentre è facile creare obiettivi da affidare, l’AI ha la capacità di creare dei sotto obiettivi che non sono prevedibili. «Vi faccio un esempio. Se dai all’AI l’obiettivo di arrestare il cambiamento climatico, il modo più ovvio per farlo è sbarazzarsi delle persone. Sarà l’AI abbastanza intelligente da rendersi conto che forse non è la soluzione ottimale?».
La soluzione potrebbe essere quella di mettere dei controlli sui sotto obiettivi ma secondo il prof. Hinton, avere il controllo sull’AI è praticamente impossibile. «Le AI potrebbero capire che togliendo il controllo alle persone, possono raggiungere i loro obiettivi in modo molto più efficiente. L’AI molto sviluppata può arrivare a considerare “mi mancano solo alcuni data center per diventare una super intelligenza e se divento più intelligente riuscirò a perseguire gli obiettivi”».
Cosa accadrebbe se queste dinamiche si verificassero in scenari di guerra? Per il professore non è fantascienza. Ed allora, in un mondo ideale, quale potrebbe essere la soluzione migliore? Hinton non ha dubbi. «Sarebbe che una superintelligenza iniziasse a gestire tutto e si prendesse cura di noi, e noi diventiamo una sorta di animali domestici di una superintelligenza». L’atmosfera nella sala si stempera, il prof. Hinton estremizza la conversazione per poi raffreddarla con il suo humor british.
L’etica collettiva
Il modo più ovvio per controllare l’AI sarebbe quella di creare degli standard comuni a livello di umanità, creare una sorta di allineamento globale come se fossimo tutti d’accordo sulle cose giuste e quelle sbagliate. «Ovviamente è utopia» prosegue il prof. Hinton, «per alcuni è giusto sganciare bombe sui bambini e per altri no. Entrambi hanno le loro ragioni»
Sembra un paradosso ma come è possibile che la razza umana “intelligente”, non sia in grado di prendere decisioni intelligenti per il proprio bene? «A questa osservazione ho una risposta facile. Se mettiamo insieme un gruppo di persone intelligenti, possono diventare molto stupide, credetemi».
Quanto realmente sappiamo sull’AI? In una recente intervista Noam Shazeer di Google ha dichiarato che al momento siamo al punto in cui eravamo con la chimica nel XII secolo ma questa affermazione non trova d’accordo il prof. Hinton. «Sappiamo cosa succede ma non sappiamo perché l’AI prende una specifica decisione. Faccio un esempio. Se prendiamo un fisico e gli chiediamo se capisce cosa succede quando una foglia cade da un albero, sicuramente può spiegare che dipende dal vento, dall’angolo di caduta. Nonostante queste informazioni, il fisico non è in grado di prevedere dove la foglia cadrà al suolo con esattezza. Penso che con l’AI siamo a questo punto».
Cosa possiamo fare per controllare l’AI
Il professor Hinton ha un paio di suggerimenti. «Le grandi aziende dovrebbero investire ingenti somme di denaro per fare esperimenti empirici per capire dove stiamo andando esattamente con lo sviluppo dell’AI. Le aziende non lo faranno di spontanea volontà, dovrebbero essere i governi ad imporlo». L’altro suggerimento riguarda i fake video che stanno irrompendo per manipolare le elezioni nei vari Paesi, Stati Uniti in primis.
«Dobbiamo vaccinarci» dice il prof. Hinton. «Ero in una riunione con un gruppo di filantropi miliardari che volevano sapere cosa potevano fare per aiutare nella campagna elettorale americana. Il mio suggerimento è stato quello di pagare pubblicità di fake video convincenti ed alla fine scrivere che si tratta di un video falso, che non era Trump e non ha mai detto nulla del genere, quello non era Biden e non ha mai detto niente del genere. È proprio come l’inoculazione di un vaccino, in modo che le persone imparino a riconoscere il falso dal vero».
Prima di congedarsi il prof. Hinton vuole lasciare il pubblico con un po’ di ottimismo e lo fa parlando delle opportunità che l’AI regalerà alla medicina. «In Nord America ci sono più di 200.000 persone all’anno che muoiono per una diagnosi inadeguata. Un medico ha il 40% di correttezza nella diagnosi, l’AI il 50% e l’AI insieme ad un medico ha il 60% di correttezza quindi 50.000 persone salvate per un anno, ogni anno». L’AI può essere uno strumento potente nelle mani dell’uomo se usata con consapevolezza. «Il problema è sempre l’uomo, non l’AI».