Sam Altman rimane in allerta. Per i critici la sua è però soltanto un strategia per temporeggiare
OpenAI ha annunciato la formazione di un team interno alla società che dovrà occuparsi di monitorare e studiare quelli che vengono definiti come rischi catastrofici dovuti all’impiego dell’intelligenza artificiale. Il team si chiama Preparedness ed è guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del MIT di Boston e membro di OpenAI da maggio 2023. Come si legge su TechCrunch, i rischi indicati riguardano il possibile ruolo che l’AI potrà giocare in ambito nucleare, così come per quanto riguarda i settori della chimica e della biologia. Il Ceo dell’azienda su cui Microsoft ha investito 10 miliardi di dollari, Sam Altman, si è proposto all’opinione pubblica come un imprenditore preoccupato della tecnologia che lui stesso sta sviluppando. Non va sottovalutata certo l’importanza di temi etici e di sicurezza che l’imprenditore ha deciso di evidenziare. Ma non tutti credono sia sincero.
I critici sospettano infatti che questa sia soltanto una strategia per temporeggiare. Ed è lecito chiedersi come mai una Big Tech focalizzata sull’intelligenza artificiale non ne blocchi lo sviluppo se, come dice, i rischi derivanti dal suo utilizzo appaiono così catastrofici. Mesi fa Elon Musk, da anni spaventato dall’AI, aveva chiesto una moratoria globale. Ricordiamo poi che lo stesso Musk ha cofondato OpenAI per poi allontanarsene (ora è al lavoro su un competitor con xAI). Nei prossimi giorni si terrà in Gran Bretagna un summit globale sull’intelligenza artificiale voluta dal primo ministro Sunak. La politica internazionale sta ragionando sui rischi e aziende come OpenAI hanno alzato il livello d’allerta. Non sono da meno gli investitori: Masayoshi Son, icona del venture capital e Ceo di SoftBank, ha detto che entro 10 anni l’AI supererà l’intelligenza umana di dieci volte.