I Ceo delle Big Tech sono preoccupati. Ma sapranno dimostrarsi collaborativi con la politica e i regolatori non soltanto a parole?
«Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare». Questo è l’appello sottoscritto da diversi imprenditori e Ceo delle Big Tech, tra i quali compare anche Sam Altman di OpenAI. Si tratta di un’iniziativa pubblicata sul sito di un non profit californiana, Center for AI Safety, dalla quale emerge un certo grado di preoccupazione rispetto all’impatto che l’intelligenza artificiale avrà sul futuro e, in particolare, sulle persone. Si parla di rischio estinzione (dell’umanità, immaginiamo noi), paragonando queste criticità alle medesime che il mondo ha di recente affrontato con l’emergenza pandemica.
Tra i firmatari, abbiamo anticipato, ci sono Sam Altman, così come Demis Hassabis di Google DeepMind e Dario Amodei, Ceo di Anthropic (scaleup di cui vi abbiamo scritto di recente). L’appello è sintetico e richiama alcuni temi che sono già stati messi nero su bianco da un altro documento sottoscritto anche da Elon Musk e di cui si è fatta promotrice Future of Life Institute, non profit, e nel quale si chiede uno stop di almeno sei mesi allo sviluppo dei software di AI.
A sei mesi dal lancio di ChatGPT in tutto il mondo il dibattito sull’intelligenza artificiale si è acceso come non mai. Quel che è certo è che, stando alle informazioni attuali, neppure gli addetti ai lavori hanno un orizzonte chiaro su quel che sarà l’AI tra cinque/dieci anni. Sam Altman si sta esponendo da settimane sulla questione, apparentemente condividendo le preoccupazioni di Elon Musk, il quale da anni azzarda previsioni non proprio ottimistiche sull’AI e sui rischi per l’umanità.
Sam Altman è a capo di una società che ha da poco ricevuto un investimento da 10 miliardi di dollari da parte di Microsoft. La competizione per l’intelligenza artificiale riguarda le Big Tech globali, dagli USA alla Cina. Rispetto al passato, quando i Ceo non chiedevano l’intervento della politica e del regolatore su un particolare settore della tecnologia (pensiamo soltanto ai social network), la novità attuale è che in Silicon Valley sembrerebbe esserci timore sulle derive dell’AI all’interno delle aziende.
Resta tuttavia da capire quanto le Big Tech impegnate nello sviluppo dell’AI sapranno dimostrarsi collaborative e trasparenti. Non è ragionevole immaginarsi uno scenario in cui la politica e i regolatori possano accollarsi l’intera responsabilità di tamponare i rischi, senza aver dall’altra parte imprese disposte a occuparsi non soltanto di un business miliardario.