Se così non fosse, i firmatari chiedono una moratoria governativa. L’obiettivo è «sviluppare e attuare congiuntamente una serie di protocolli di sicurezza condivisi»
La richiesta è semplice: fermare qualsiasi tipo di test di intelligenza artificiale che sia più potente di GPT-4 per almeno sei mesi. La tecnologia citata è quella alla base di ChatGPT, il software realizzato dalla statunitense OpenAI (qui trovate il nostro dossier) di cui si parla da mesi per la sua capacità di generare testo su una quantità pressoché illimitata di argomenti. A lanciare questo appello – già sottoscritto da oltre 1100 figure di spicco del panorama tech e della ricerca – è il Future of Life Institute, organizzazione non profit. Tra i firmatari troviamo anche Elon Musk, tra i soggetti che hanno fondato insieme a Sam Altman la stessa OpenAI (ma su questo torneremo tra un attimo). Vediamo cosa chiede questo appello e le ragioni delle preoccupazioni espresse.
«I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di IA». Il testo prosegue con una serie di domande che hanno il tono di un manifesto che mostra scetticismo rispetto all’impatto positivo che le intelligenze artificiali più potenti potrebbero avere sulla società: «Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti».
La richiesta di una pausa di almeno sei mesi di tutte le attività dei laboratori AI più potenti di GPT-4 viene argomentata in questa maniera. «Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria». I proponenti aggiungono: «I laboratori di AI e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e attuare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti». In buona sostanza, dare un contorno di sicurezza (anche etica) al lavoro sull’intelligenza artificiale.
Lo stesso Elon Musk ribadisce da anni la propria preoccupazione rispetto allo strapotere dell’intelligenza artificiale. Neuralink è una delle sue società e sta sviluppando chip da impiantare nel cervello umano a fini non soltanto sanitari (per la cura di gravi situazioni neurologiche), ma anche un domani per attrezzare le persone e proteggerle dall’AI. Oltre al Ceo di Tesla, hanno sottoscritto l’appello tanti altri protagonisti del settore Big Tech come Steve Wozniak (Co-founder di Apple), Evan Sharp (Co-Founder di Pinterest) e Chris Larsen (Co-Founder di Ripple). Nella lista si trovano anche dipendenti di Amazon, Meta e Google.