A Londra è in corso il summit sull’intelligenza artificiale. Ha partecipato anche Elon Musk
Il summit sull’intelligenza artificiale organizzato in Gran Bretagna dal Governo sta servendo alla politica e alle istituzioni per fare il punto sullo sviluppo dell’AI e sui potenziali rischi. Nelle scorse ore l’esecutivo di Rishi Sunak ha annunciato peraltro un piano da 300 milioni di sterline per costruire due supercomputer di intelligenza artificiale. All’evento, ancora in corso a Londra, hanno partecipato importanti rappresentanti delle Big Tech: presente anche Elon Musk, il Ceo di Tesla, tra le figure più preoccupate rispetto alla pericolosità di un’intelligenza artificiale fuori controllo. Il summit ha prodotto la Bletchley Declaration, dichiarazione sottoscritta da 28 Paesi, tra cui anche l’Italia, e che almeno sulla carta vede Stati competitor sul tema AI come USA e Cina concordi su linee di principio. Vediamo quali sono i temi principali della Bletchley Declaration.
I primi paragrafi sono dedicati ai passi avanti e alle potenzialità dell’intelligenza artificiale per lo sviluppo e la crescita economica. «Accogliamo con favore – si legge nella dichiarazione – gli sforzi compiuti finora dalla comunità internazionale per cooperare sull’AI al fine di promuovere una crescita economica inclusiva, lo sviluppo sostenibile e l’innovazione, di proteggere i diritti umani e le libertà fondamentali e di promuovere la fiducia del pubblico nei sistemi di IA per realizzare pienamente il loro potenziale».
Poi si passa ai rischi derivanti dall’AI, citati nella dichiarazione. «L’AI comporta rischi significativi, anche in quei settori della vita quotidiana». I Paesi che hanno sottoscritto il documento hanno aggiunto: «Siamo particolarmente preoccupati da questi rischi in settori come la sicurezza informatica e le biotecnologie, nonché nei casi in cui i sistemi di AI di frontiera possano amplificare rischi come la disinformazione. Le capacità più significative di questi modelli di AI possono causare danni gravi, persino catastrofici, sia intenzionali sia non intenzionali». Serve dunque un impegno da parte di tutti gli attori coinvolti. «Tutti hanno un ruolo da svolgere nel garantire la sicurezza dell’AI: le nazioni, i forum internazionali e altre iniziative, le aziende, la società civile e il mondo accademico dovranno lavorare insieme». In conclusione la dichiarazione ribadisce un elemento imprescindibile: viene infatti chiesta «una maggiore trasparenza da parte degli attori privati che sviluppano capacità di AI di frontiera».