Dopo lo stop al riconoscimento facciale, la novità sull’advertising
«Abbiamo ascoltato le preoccupazioni degli esperti secondo cui le opzioni di targeting come queste potrebbero essere usate in modi che portano a esperienze negative per le persone». Con questa sintetica considerazione Graham Mudd, Vice president of product marketing a Meta – il nuovo nome del gruppo Facebook – ha annunciato una novità notevole per quanto riguarda la pubblicità sui social e piattaforme della società di Menlo Park. Come si spiega anche sul New York Times, la multinazionale guidata da Mark Zuckerberg ha deciso lo stop alla possibilità data finora agli inserzionisti di raggiungere gli utenti con pubblicità mirate basate sulle loro interazioni con contenuti su temi quali salute, razza ed etnia, orientamento politico, religioso e sessuale. La lista conta migliaia di altri argomenti.
Sono settimane di tempesta per Menlo Park. Dopo le interviste rilasciate dall’ex data scientist Frances Haugen – tra le ospiti più attesa al Web Summit dei giorni scorsi a Lisbona – Menlo Park sembra stia correndo ai ripari. Tanto per cominciare ha annunciato la cancellazione di una mole enorme di dati biometrici ricavati da un decennio di attività della propria tecnologia di riconoscimento facciale: nelle prossime settimane la funzione non sarà più disponibile sul social network più utilizzato al mondo. Questa novità in merito alle pubblicità mirate su Facebook in base alle interazioni degli utenti riporta alla memoria uno dei casi più eclatanti degli ultimi anni.
Lo scandalo di Cambridge Analytica ha svelato le clamorose lacune delle piattaforme controllate da Meta, in grado di fornire a una società di consulenza esterna la possibilità di influenzare il dibattito social senza alcun limite etico. Nato come social network all’interno di un’ateneo, Facebook è diventato un pozzo di dati immenso nel quale miliardi di utenti vi continuano a gettare informazioni sulla propria vita: una simile miniera è stata messa a frutto da Menlo Park proprio con l’advertising. «Facebook può dedurre che sei gay o che sei afroamericano – ha spiegato la ricercatrice Augustine Fou al NYT – ma allora la domanda diventa la seguente: è etico usare queste categorie per il targeting?».