Pochi mesi fa, in piena estate, Elon Musk ha ritwittato su X un video deepfake di Kamala Harris. In quell’occasione, il governatore californiano, Gavin Newsom, aveva affermato che azioni di questo tipo «dovrebbero essere illegali». La California ha appena approvato nuove norme sui contenuti elettorali, ma lo scontro si è spostato in tribunale. E non è soltanto in California che i deepfake, ovvero immagini e video manipolati con l’AI, rischiano di influenzare le scelte dei cittadini su chi eleggere alle ormai prossime presidenziali americane. Abbiamo provato a comprendere la gravità del fenomeno con Marco Ramilli, esperto di sicurezza informatica e founder di IdentifAI, startup italiana che ha recentemente chiuso un round a 2.2 milioni di euro e che si occupa proprio di scovare dove si nascondono i deepfake.
Marco, da quanto tempo ti occupi di sicurezza informatica?
Sono più di 15 anni che studio e approfondisco il campo della cybersecurity. Sono nato sulle coste della Romagna, ho studiato Ingegneria Informatica all’Università di Bologna e sui temi della sicurezza informatica ho, poi, avviato una collaborazione con l’Università della California, ho conseguito un dottorato di ricerca in Information Communication Technology e ho lavorato per il governo degli Stati Uniti, l’IEEE e varie istituzioni accademiche come ricercatore, relatore e insegnante, così è iniziata la mia avventura nella Silicon Valley.
Poi che cosa è successo?
Dopo qualche mese sono tornato in Italia e ho fondato Yoroi, una startup di successo nel settore della cybersecurity con un team di Cyber Security Analysts e una piattaforma, CyberSecurity Defence Center, che potenzia l’analisi. Un giorno, mentre ero in taxi, ho visto l’immagine virale del Papa con il famoso piumino bianco e ho avuto un’idea: avrei tanto voluto mettere in piedi una realtà che si occupasse di scovare il deepfake, ovvero la manipolazione di un video o di un’immagine a scopi malevoli.
Quanto è alto il rischio di deepfake durante la campagna per le elezioni presidenziali americane?
Il rischio di deepfake durante un anno così cruciale per le elezioni americane è davvero molto alto. Questo perchè attraverso questa tecnica, chi vede un contenuto falso (che può essere un video, un testo, una fotografia) prova un sentimento, stato d’animo, emozione che va a cambiare il suo punto di vista e la sua opinione. Per questo è molto importante cercare di capire quando le informazioni che stiamo leggendo sono reali o prodotte artificialmente.
Come si potrebbe, secondo te, se si può, arginare questo fenomeno?
Il tema del deepfake è molto ampio. Inizio col dire che nasce per scopi manipolatori, e non credo che ci sia un’unica soluzione ma che esistano tanti modi diversi per ridurre questa problematica: c’è chi lo fa tramite una serie di processi, come doppi o tripli controlli, oppure chi con l’AI riesce, con una certa probabilità, a trovare l’origine di un determinato contenuto e capire se è artificiale o no. C’è, però, da tenere presente che il contenuto artificiale può anche rappresentare il vero, così come un contenuto reale, se raccontato in modo errato, può testimoniare il falso. Proprio per queste ragioni, conoscere la fonte dalla quale proviene un certo video o immagine è essenziale nella lotta la deepfake.
Secondo te, il rischio di deepfake è completamente controllabile?
Io credo che sia controllabile ma non eliminabile. Con IdentifAI, per esempio, utilizziamo alcuni strumenti che ci permettono di raggiungere la sorgente della creazione di un certo contenuto, ma la rimozione al 100% di deepfake non crediamo che sia possibile. Tuttavia, si possono adottare alcuni strumenti come, appunto, IdentifAI, che lavorano per ridurre questo rischio. Il rischio, quindi, è controllabile e riducibile, ma non eliminabile.
Questo fenomeno come potrebbe evolvere in futuro?
La creazione di piattaforme sempre più facili da usare, penso a Mistral e tante altre, offriranno a una platea sempre più ampia la possibilità di generare contenuti. Mentre, una volta, a riuscire a manipolare contenuti per illudere l’occhio umano erano in pochi e molto bravi, oggi sono in molti e, per la legge di grandi numeri, ci sono più attività di manipolazione. Per questo dobbiamo garantire a tutti il diritto di sapere se il contenuto che stanno guardando è generato dall’AI o no. Ed è con questo intento che è nata IdentifAI.
La startup che hai co-fondato ha da poco chiuso un round di finanziamento da 2.2 milioni. Come pensate di impiegare il capitale ricevuto?
Da un lato, implementeremo la nostra parte tecnologica, da un altro, abbiamo la convinzione che oggi siano tanti i mercati che possono utilizzare la nostra piattaforma: dall’editoria alla frode assicurativa fino al controllo degli influencer e della pubblicità. La nostra tecnologia può essere applicata in tanti casi d’uso. Con il capitale ricevuto vogliamo andare alla ricerca del mercato che è più pronto di altri a usare la nostra tecnologia.
Quali sono i vostri prossimi obiettivi?
Nel futuro vogliamo proporre tanti proof of concept a mercati diversi. Come anticipavo, il ventaglio di possibili Paesi dove potremmo arrivare per noi è molto ampio. Attualmente ne vogliamo individuare due o tre da esplorare e con i quali iniziare a operare assiduamente.