L’annuncio di Zuckerber dopo l’inchiesta del New York Times sulle pressioni per screditare i critici della piattaforma e sui ritardi rispetto alle interferenze russe. Le altre novità per la sicurezza
Facebook torna ad avere molto da spiegare. Ieri una biblica inchiesta del New York Times ha messo in evidenza i movimenti, le timidezze e al contempo le spregiudicatezze del top management della piattaforma negli ultimi due anni. Dal 2016 in poi. Da quando, cioè, sono esplosi prima il caso delle interferenze russe nella campagna elettorale presidenziale di quell’anno e, poi, all’inizio del 2018, lo scandalo Cambridge Analytica.
Cosa dice l’inchiesta
In particolare, secondo il racconto del giornale della Grande Mela – che ha coinvolto oltre 50 fonti, da ex dipendenti e manager a politici e componenti dei loro staff – Facebook avrebbe saputo, nella persona dell’ex capo della sicurezza Alex Stamos, dei movimenti di hacker e agenti russi sulla piattaforma fin dalla primavera del 2016. E avrebbe invece iniziato a riconoscere pubblicamente il problema solo nel settembre dell’anno seguente. Non solo: fra l’una e l’altra crisi – mentre Zuckerberg girava l’America come un candidato presidente – la direttrice operativa Sheryl Sandberg non avrebbe lesinato a sfoderare una spietata campagna lobbistica a Washington D.C.. Per esempio ingaggiando una società di consulenza legata ad ambienti repubblicani per confezionare notizie negative su concorrenti come Google e Apple e per collegare gruppi anti-Facebook a complottismi legati al finanziere George Soros.
Sheryl Sandberg, coo di Facebook
La nota di Zuckerberg
Nello stesso giorno Zuckerberg annunciava, sia in conferenza stampa con alcune testate internazionali che con una lunga nota sulla sua pagina, l’ennesimo pacchetto di novità per affrontare questi temi. Sono fondamentalmente tre: una prevede che i contenuti che non violano gli standard ma ci si avvicinano molto siano penalizzati nella loro circolazione sulla bacheca. Il secondo è l’uso sempre più massiccio dell’intelligenza artificiale per pescare contenuti da rimuovere (la maggior parte di questi è già eliminata prima che qualcuno possa visualizzarla, così come gli utenti finti: ne sono stati rimossi un miliardo e mezzo, ha scritto Zuckerberg, anche se la cifra appare sproporzionata). Il terzo è forse il più succoso per gli utenti: nascerà una sorta di corte d’appello per i post rimossi.
Proteste nei confronti di Facebook e del suo creatore Mark Zuckerberg
La “corte d’appello”
In pratica, Facebook dovrebbe mettere in piedi un organismo indipendente di sorveglianza che dovrebbe giudicare, uno a uno (buona fortuna), tutti i casi in cui un contenuto sia stato rimosso ma l’utente non ritenga giusta quella cancellazione. Questa “corte” dovrebbe essere formata il prossimo anno – e anzi in questo periodo inizierà un confronto aperto su chi la dovrebbe comporre e come dovrebbe lavorare – nel tentativo di bilanciare la libertà di parola con la necessità di garantire la sicurezza alle persone in tutto il mondo. Qualcosa si sta già facendo ma il nuovo organismo sarà differente.
“Credo che l’indipendenza sia importante per molte ragioni – ha scritto Zuckerberg, che dall’inchiesta del NYTimes esce piuttosto debole nonostante controlli il colosso di Menlo Park col 60% dei voti in cda – anzitutto preverrà che troppo potere si concentri nelle mani dei nostri team. Secondo, creerà trasparenza e supervisione. Terzo, fornirà la certezza che queste decisioni siano prese nell’interesse della comunità e non per motivi commerciali”. Il nuovo meccanismo dovrebbe essere pronto entro la fine del 2019.
Al momento, ha aggiunto Zuckerberg, sono 30mila le persone che si occupano di moderare i contenuti e, nel complesso, pare riescano a lavorare qualcosa come due milioni di post al giorno. Al contrario, alla messa a punto degli standard di comunità lavorano 10 uffici in sei Paesi diversi.