Il dibattito sull’Intelligenza artificiale rischia di riprodurre dinamiche anti-tecnologiche. Il problema però non è la tecnologia ma quello che ne sappiamo.
Se avete letto un giornale o guardato la tv negli ultimi tre mesi avete sicuramente capito che il mondo ha davanti a sé un grande, grandissimo problema. Anzi, una minaccia letale. No, non è il terrorismo islamico dell’IS. E nemmeno la crisi economica che porta i tassi di disoccupazione nelle economie mature a tassi a doppia cifra. Non è il virus dell’Ebola. E nemmeno il riscaldamento globale che sta facendo impazzire il clima provocando migliaia di morti ogni anno. No. La minaccia letale è (sarebbe) l’Intelligenza Artificiale. Oramai sui media è un tormentone. “Anche Tizio si associa all’allarme di Caio”. “Pure Sempronio firma l’appello degli scienziati”. Nel mirino i computer, sempre più potenti, sempre più intelligenti. Ci distruggeranno?
L’intelligenza (artificiale) ci distruggerà?
La questione è evidentemente molto seria, eppure va detto che l’allarme, anzi, la dinamica che lo genera, non è affatto nuova. Senza scomodare i luddisti del secolo scorso, per restare a questo millennio, nel 2000 fece scalpore un saggio scritto da Bill Joy per Wired intitolato “Perché il futuro non ha bisogno di noi”. La tesi era che il progresso sempre più rapido nel campo della robotica, della ingegneria genetica e delle nanotecnologie avrebbero alla fine messo in pericolo l’esistenza stessa della specie umana. Il saggio fece scalpore perché Bill Joy non è certo un nemico della tecnologia, anzi: co-fondatore di Sun Microsystem, ai tempi era il chief-scientist del colosso di Silicon Valley. Insomma, per usare una categoria cara a Umberto Eco, Bill Joy era un integrato che a un certo punto sentì il bisogno, o meglio, l’onestà intellettuale di metterci in guarda dal positivismo tecnologico per cui le “macchine” fanno solo cose meravigliose. E divenne apocalittico.
Anche il treno era uno strumento del demonio
Dicevo che questa dinamica in realtà è sempre esistita. E quindi credo se ne possa dedurre che discende direttamente dal modo in cui siamo fatti. Il treno è stato considerato “uno strumento del demonio” persino da un pontefice; l’automobile nel Regno Unito era un pericolo da segnalare con la bandiera rossa; e persino l’energia elettrica negli Stati Uniti è stata guardata con sospetto (“Chi ne ha davvero bisogno in fondo?” chiedeva due secoli fa un politico locale che sarebbe poi finito addirittura a Washington). Ricordarle oggi, queste prese di posizione così clamorosamente fuori sincrono con la direzione che poi ha preso la storia, non vuol dire negare che ci siano stati incidenti ferroviari tragici, che ogni giorno molte persone muoiano per strada o che con l’energia elettrica qualcuno possa rimanere fulminato. Ma il saldo positivo portato all’umanità nel suo complesso da queste invenzioni è indiscutibile.
Con l’intelligenza artificiale è diverso, dicono alcuni. Stavolta siamo davvero in pericolo. Se possiamo identificare un momento in cui nel mondo è ripartito questo atteggiamento apocalittico, quel momento è il 2 dicembre 2014. Quel giorno sul Financial Times e su alcuni altri giornali appare una intervista con lo scienziato Stephen Hawking. Hawking è una autorità: fisico, matematico, cosmologo, per 30 anni a Cambridge ha occupato la cattedra che fu di Albert Einstein. Hawking è famoso non solo per i suoi studi sui buchi neri e l’origine dell’universo, ma anche per la sua terribile malattia che lo costringe all’immobilità assoluta e a comunicare grazie ad un sintetizzatore vocale (e a scrivere con uno strumento pioneristico che si basa sull’intelligenza artificiale).
Insomma, la sua immagine – sofferente e sorridente – è una icona della scienza contemporanea. Quando parla Hawking, il mondo ascolta ammirato. E così il suo grido di allarme – “L’intelligenza artificiale può distruggere il genere umano” – è stato scolpito a caratteri cubitali sui siti dei giornali di tutto il mondo. E nel giro di poche settimane è spuntato un appello firmato da centinaia di scienziati spaventati dai robot; una intervista contrita di una delle figure simbolo della Silicon Valley rampante e rombante, Elon Musk; fino alla chat globale di Bill Gates sulla piattaforma Reddit, iniziata parlando di vaccini per i bambini nei paesi poveri e finita puntando l’indice contro le macchine cattive.
L’intelligenza artificiale non distruggerà l’uomo
Partiamo da Stephen Hawking. Che ha detto esattamente? Ha detto che l’ingegneria genetica ci consente di migliorare il nostro DNA e quindi la qualità della razza umana, ma che ci vorranno 18 anni per vedere i primi effetti benefici di questa trasformazione. Invece, come è noto, per la legge di Moore, ogni 18 mesi la velocità e la capacità di calcolo dei computer raddoppia. 18 anni contro 18 mesi. Il rischio è che la nostra lenta evoluzione biologica non ci metta in grado di competere con la rapidissima evoluzione tecnologica. Siamo spacciati allora? Calma: “Le probabilità di una fine catastrofica del pianeta Terra diventa una certezza nei prossimi 1000 o 10000 anni”. Mille o diecimila? Fa una certa differenza no? In fondo no: se il primo scienziato del mondo dice che possiamo stare relativamente tranquilli per almeno mille anni, dovremmo esultare. E soprattutto fra le minacce alla nostra sopravvivenza come specie umana, Hawking non cita l’intelligenza artificiale, ma “le guerre nucleari, il riscaldamento globale e i virus geneticamente modificati”. L’intelligenza artificiale no. E allora perché quei titoloni, l’allarme planetario di tweet in tweet, le interviste arraffazzonate (“Anche lei come Hawking teme l’intelligenza delle macchine?” “Sì, certo, un po’ di timore non si nega a nessuno”).
Una non notizia gonfiata dai media
Sono poi andato a vedere il famoso appello di centinaia di scienziati contro i rischi dell’intelligenza artificiale. Fa capo a un nuovo istituto chiamato Future of Life. Si presenta con questa frase:
Technology has given the opportunity to flourish like never before… or to self-destruct.
Tra le due strade, quelli di Future of Life non hanno dubbi su quale prendere: “Noi catalizziamo e supportiamo iniziative e ricerche per la salvaguardia della vita e lo sviluppo di una visione ottimistica del futuro”. E l’appello catastrofista dove sta? Si chiama “Research Priorities for Robust and Beneficial Articial Intelligence”, ha la forma di una Open Letter, lettera aperta, ed è un testo piuttosto breve, che rimanda ad un documento allegato sulle priorità della ricerca scientifica. Ho cercato a lungo nei tre paragrafi una frase che giustificasse il titolo che girava sui media – “appello di centinaia di scienziati contro l’intelligenza artificiale” -.
Ed ecco cosa ho trovato.
1) negli ultimi 20 anni ci sono stati progressi ragguardevoli nei campi del riconoscimento dei discorsi, della classificazione delle immagini, dei veicoli che si guidano da soli, delle traduzioni automatiche, dei sistemi di spostamento con delle gambe artificiali e delle piattaforme di domande e risposta.
2) C’è un consenso generale sul fatto che la ricerca in questo settore sta facendo progressi costanti e che gli effetti sulla vita delle persone aumenteranno;
3) I benefici potenziali sono immensi. Impossibile predire cosa potremo raggiungere una volta che l’intelligenza degli uomini sarà potenziata dagli strumenti che l’intelligenza artificiale può offrire; ma, per esempio, l’eliminazione della povertà e delle malattie non sono un miraggio.
4) Dato il grande potenziale dell’intelligenza artificiale, è fondamentale far sì che ne cogliamo i frutti evitando potenziali problemi.
5) C’è un solo modo per farlo: finanziare le ricerca in modo interdisciplinare, dalle scienze fino all’etica e la filosofia.
Fantastico. Dove si firma? Firmo anche io.
E soprattutto: dov’è l’allarme di cui si parla? Io ci vedo soltanto un appello, legittimo, anzi, doveroso, a finanziare con generosità e lungimiranza la ricerca scientifica su questi temi che sono così importanti per il nostro futuro. E infatti sul sito, in bella vista, c’è la notizia che Elon Musk, co-fondatore di PayPal, creatore di Tesla Motors e di altre imprese, ha donato 10 milioni di dollari all’istituto.
Missione compiuta, insomma.
Nemmeno Bill Gates ha paura dell’IA
Poi c’è il caso Bill Gates. Il fondatore (e azionista di maggioranza) di Microsoft ormai da anni veste solo i panni del benefattore globale attraverso i progetti della fondazione che porta il nome suo e della moglie Melinda. Alla fine di gennaio è tornato (ci era stato altre due volte) sulla piattaforma Reddit per una chat globale con la formula AMA, Ask Me Anything. Chiedetemi tutto.
La conversazione dura a lungo e spazia su molti temi. Risultato? Questo titolo: “L’intelligenza artificiale va controllata”. O anche: “La crociata contro l’intelligenza artificiale continua”.
Ma è andata proprio così? Ecco la mia sintesi della chat.
Domanda. Qual è la sfida più grande che abbiamo davanti?
Risposta. Dal punto di vista scientifico una cura per l’Aids. Ma la cosa più difficile è aiutare gli insegnanti ad imparare dagli insegnanti migliori.
Domanda. Una carriera da informatico ha ancora senso oppure tutti i coder verrano sostituiti dalle macchine?
Risposta. E’ una carriera sicura per ora. Ed è divertente. Inoltre il coding aiuta a sviluppare la logica. In futuro le cose cambieranno per molte professioni ma saper programmare sarà sempre utile.
Domanda. Quale lezione ha imparato nella vita?
Risposta. Non stare svegli tutta la notte anche se stai leggendo un gran libro perché la mattina dopo te ne pentirai.
Domanda. Che ne pensa dei progetti per allungare la vita e diventare immortali?
Risposta. Può sembrare molto egoistico allungare la vita dei ricchi mentre milioni di persone muoiono di malaria e tubercolosi. Ma ammetto che mi affascina.
E infine, domandona. Il 2015 segna il trentennale di Windows. Che accadrà nei prossimi 30 anni? Come sarà il mondo nel 2045?
Risposta. Ci saranno più progressi nei prossimi trenta anni di quanto è accaduto finora in tutta la storia dell’umanità. Ma già nei prossimi dieci ci saranno miglioramenti fondamentali nei campi della traduzione e della comprensione dei testi e delle immagini da parte delle macchine. Compiti pratici di robotica, come raccogliere un frutto o portare un paziente all’ospedale, saranno risolti.
Appena i computer/robot avranno una capacità di guardare e muoversi con facilità saranno usati massicciamente.
Io stesso a Microsoft sto lavorando ad un Personal Agent che ti aiuta a ricordare le cose e a ritrovarle. E se oggi tornassi indietro, sarei un ricercatore nel campo dell’Intelligenza Artificiale.
A quel punto, davanti ad una domanda ancora più insistente, Bill Gates dice: “Io sono nel campo di quelli che sono preoccupati della super intelligenza. Prima le macchine faranno un sacco di lavoro per noi e non saranno super intelligenti. E questo sarà un bene se sapremo gestirlo con attenzione. Ma alcuni decenni dopo, l’intelligenza delle macchine sarà sufficientemente sviluppata da diventare un problema. La penso come Elon Musk e non capisco chi non se ne occupa”.
Perché la crociata contro l’IA è ingiustificata
Tutto qui. Un ragionevole, condivisibile, autorevole punto di vista che ci mette in guardia per quello che potrebbe capitare fra una trentina di anni. Come quello degli scienziati di Future of Life. Come quello di Stephen Hawking – che però procrastina la fine del mondo di un millennio almeno. Tutto ciò, giustifica l’allarme? La crociata contro l’intelligenza artificiale?
Lo giustifica perché siamo fatti così. Perché il progresso ci affascina e ci spaventa. Vorremmo andare in un futuro migliore ma rimpiangiamo un passato che non solo non c’è più ma in un certo senso non c’è mai stato. Con tutti i suoi difetti e i suoi problemi – serissimi, drammatici – il mondo non è mai stato tanto bene se guardiamo ai suoi parametri fondamentali: la durata della vita, la mortalità infantile, la povertà, l’istruzione. E questo è dovuto alla nostra intelligenza non a quella artificiale: alla nostra capacità come specie umana di inventare soluzioni inimmaginabili, di scovare fonti di energia nascoste, di costruire macchine che prima sembravano fantascienza. Tutte queste cose, che per semplicità potremmo chiamare progresso, non sono avvenute senza prezzi e senza errori. Anche tragici. Ma l’unico vero antidoto non è alzare delle barricate, fuggire in un caverna, bruciare i libri con il patrimonio di conoscenza che rappresentano.
L’unico antidoto ai pericoli dell’intelligenza artificiale non è l’ignoranza naturale ma è investire in conoscenza, nel diventare noi più capaci di guidare macchine sempre più sofisticate. E nel farlo, avere davanti una unica stella polare: l’etica, la consapevolezza profonda che le meraviglie della tecnica hanno un senso solo se portano un beneficio alla umanità.
Riccardo Luna
@RiccardoLuna