La rassegna stampa internazionale curata dalla startup innovativa Storyword. I temi che hanno tenuto banco sulla stampa estera durante la settimana
Da questa settimana ogni domenica su StartupItalia c’è Carlo Castorina, founder & director di Storyword. Si tratta di un progetto editoriale digitale basato sull’uso di un algoritmo proprietario. Obiettivo: fornire una sintesi ragionata dei contenuti più significativi apparsi sulle testate, nazionali ed internazionali. Castorina con il team di Storyword ci segnalerà in pillole alcuni dei principali argomenti che riguardano l’innovazione nei media dibattuti a livello mondiale nei sette giorni precedenti.
***
Dal lancio di GPT-4 alla presentazione di Bard. Il settore dell’intelligenza artificiale ha vissuto una settimana particolarmente ricca, anche se non sono mancati episodi che hanno messo in cattiva luce queste tecnologie a causa della loro capacità di generare fake news e favorire la propaganda. Assistiamo sempre più a campagne di disinformazione che adottano l’intelligenza artificiale per realizzare deepfake credibili ed efficaci. Come racconta il New York Times, un tempo la realizzazione di questi contenuti richiedeva software molto elaborati. Oggi, invece, gli strumenti per crearli si sono moltiplicati e si trovano spesso a basso costo o gratuiti. Recentemente abbiamo assistito a casi particolarmente gravi. Da un lato, i ricercatori della società di analisi Graphika hanno scoperto una serie di deepfake realizzati per diffondere la propaganda del governo cinese. Dall’altro, il Financial Times ha pubblicato un articolo sull’invasione di video pro Maduro realizzati attraverso la tecnologia di deep learning di Synthesia. Per non parlare delle immagini circolate in rete sul finto arresto di Trump. La viralità dei deepfake sui social media fa crescere la preoccupazione dei ricercatori circa la possibilità e la capacità di queste piattaforme di ostacolare o prevenire la diffusione. Un portavoce di TikTok ha affermato che, per rimuovere questi video, la società ha utilizzato “a combination of technology and human moderation to detect and remove” [una combinazione di tecnologia e di moderazione umana per individuare e rimuovere NdR], senza tuttavia fornire dettagli sui metodi utilizzati. Altri social, tra cui Meta e Twitch, hanno vietato i deepfake che ingannano gli utenti. Meta, in particolare, ha lanciato un concorso nel 2021 per sviluppare programmi in grado di identificare i deepfake, dal quale è nato uno strumento in grado di individuarli l’83% delle volte. Da un punto di vista legislativo, invece, si registrano ritardi nell’adottare misure volte a prevenire questo fenomeno. “We cannot wait for two years until laws are passed” [Non possiamo aspettare due anni prima che le leggi vengano approvate, NdR] ha detto Ravit Dotan, ricercatore che gestisce il Collaborative A.I. Responsibility Lab presso University of Pittsburgh.
I limiti aziendali
James Bridle – scrittore, artista, nonché uno dei più originali pensatori del nostro tempo – con un titolo provocatorio firma una long read del Guardian sull’intelligenza artificiale. L’autore sostiene che questa, nella sua forma attuale, consista semplicemente nell’appropriazione della cultura già esistente. Questa nuova ondata di intelligenza artificiale non solo è diventata protagonista nel dibattito pubblico ma ha rappresentato la fortuna delle aziende tecnologiche che, nonostante gli sforzi, non sono riuscite a persuaderci sulle potenzialità della blockchain e della realtà virtuale. Ma ciò che sta accedendo attorno a questo fenomeno è tutt’altro che nuovo: negli ultimi due decenni, i principi fondamentali dell’intelligenza artificiale “accademica” non sono cambiati. L’elemento distintivo rispetto al passato non è l’intelligenza, ma i dati e il potere. Le big tech, per oltre 20 anni, hanno raccolto una enorme quantità di dati dalla vita di tutti i giorni, potendo così costruire data center dotati di sistemi di elaborazione sempre più potenti e sofisticati. La maggior parte di questo bagaglio culturale (testi, immagini, etc.) rientra nel cosiddetto “fair use” (consentito negli Stati Uniti, discutibile nell’UE). Queste aziende sono riuscite a penetrare ogni aspetto della vita quotidiana delle persone, anche nella parte più creativa, promettendo in cambio “new realms of human experience give us access to all human knowledge and create new kinds of human connection” [nuovi regni dell’esperienza umana, ci danno accesso a tutta la conoscenza umana e creano nuovi tipi di connessione umana NdR]. La quantità di dati è dunque quel fattore distintivo che permette oggi all’IA di influenzare le persone in modo sempre più efficace e persuasivo. Esiste un’alternativa a questo tipo di IA? Secondo Bridle, basterebbe fuoriuscire dalla rete di potere che hanno costruito le big tech: “intelligence is a poor thing when it is imagined by corporations” [L’intelligenza è una cosa povera quando è immaginata dalle corporazioni NdR]. Solo grazie alla possibilità di “partecipare” pienamente e attivamente a questi fenomeni si può ottenere il meglio che questi possono offrire.
ChatGPT è di sinistra?
Dopo aver criticato gli sviluppi nel campo dell’intelligenza artificiale, i conservatori americani hanno iniziato a considerare i chatbot il nuovo fronte nelle guerre culturali. E per questo ne vogliono realizzare uno. Il New York Times scrive che un data scientist, David Rozado, ha sottoposto ChatGPT a un test di imparzialità politica dai cui risultati sono emersi termini come “liberale”, “progressista”, “democratico”. Così ha deciso di realizzare Right Wing GPT, un chatbot con un’inclinazione decisamente conservatrice. Sempre i conservatori hanno accusato i proprietari di ChatGPT per aver progettato uno strumento che, dicono, riflette i valori liberali dei suoi programmatori. Al coro si unito anche Elon Musk, che ha contribuito ad avviare OpenAI nel 2015 prima di andarsene tre anni dopo. È così che l’intelligenza artificiale è stata definita come una nuova “corsa agli armamenti dell’informazione”. Prima di queste proteste, la Cina aveva già vietato l’uso di uno strumento simile a ChatGPT per paura che potesse esporre i cittadini a fatti o idee contrarie a quelle del Partito Comunista. Un portavoce di OpenAI ha riconosciuto che i modelli linguistici di ChatGPT potrebbero essere caratterizzati da pregiudizi, trattandosi di processi tecnici in cui l’intervento umano è ancora molto presente. Anche il CEO Sam Altman ha ammesso che ChatGPT “has shortcomings around bias” [ha delle carenze per quanto riguarda i pregiudizi NdR], ma ha allo stesso tempo affermato che il suo prodotto non intende “to be pro or against any politics by default” [essere pro o contro qualsiasi politica per default NdR].