«Probabilmente avremo bisogno di qualcosa di simile all’Agenzia internazionale per l’energia atomica». Ecco le proposte dell’azienda
«La superintelligenza sarà più potente di altre tecnologie con cui l’umanità ha dovuto confrontarsi in passato». OpenAI, la società guidata da Sam Altman, non smette di fare notizia dopo che a fine 2022 ha pubblicato il software ChatGPT, rendendolo disponibile gratuitamente in tutto il mondo. Sul sito dell’azienda è stato pubblicato un post a firma di Altman, Greg Brockman (presidente) e Ilya Sutskever (co-founder e Chief Scientist) nel quale, in buona sostanza, i vertici avanzano proposte in punti per dare una governance all’intelligenza artificiale. «Possiamo avere un futuro molto più prospero – premettono – ma dobbiamo gestire il rischio».
Prima di entrare nello specifico delle proposte di OpenAI è utile avere un contesto di quanto accaduto negli ultimi mesi. Sam Altman si è esposto soltanto di recente in merito ai rischi dell’intelligenza artificiale, lasciando che di quell’argomento trattassero altri imprenditori come Elon Musk. Il Ceo di Tesla è stato tra i cofondatori di OpenAI, società dalla quale si è allontanato per divergenze. Sono anni che Musk avverte l’opinione pubblica sui presunti rischi che l’umanità starebbe correndo con AI sempre più performanti. Da qualche settimana anche Sam Altman ha deciso di trattare il tema: lo ha fatto in un’audizione al Senato degli Stati Uniti.
L’attenzione di OpenAI per una governance non punta tanto a ChatGPT, tecnologia già di suo sorprendente, bensì alle intelligenze artificiali dei prossimi anni, le cui potenzialità non sarebbero nemmeno immaginabili. «Dobbiamo mitigare i rischi della tecnologia AI di oggi, ma la superintelligenza richiederà un trattamento e un coordinamento speciali».
Ecco dunque cosa suggeriscono Sam Altman e i vertici di OpenAI per contenere i rischi e consentire uno sviluppo equo e sicuro. Secondo loro è anzitutto «necessario un certo grado di coordinamento tra i principali sforzi di sviluppo per garantire che lo sviluppo della superintelligenza avvenga in un modo che ci permetta di mantenere la sicurezza e di favorire un’agevole integrazione di questi sistemi con la società».
Il post prosegue con il riferimento all’energia nucleare. «Probabilmente avremo bisogno di qualcosa di simile all’AIEA (Agenzia internazionale per l’energia atomica, ndr) per gli sforzi di superintelligenza». Questo perché «qualsiasi sforzo al di sopra di una certa soglia di capacità dovrà essere soggetto a un’autorità internazionale che possa ispezionare i sistemi, richiedere verifiche, testare la conformità con gli standard di sicurezza, porre restrizioni sui gradi di diffusione».
E infine «occorre la capacità tecnica di rendere sicura una superintelligenza». Questi tre punti avanzati da OpenAI per la superintelligenza artificiali restano sul vago e delegano alla politica e alle istituzioni il compito di normare un terreno così innovativo.