I recenti studi su 840 miliardi di parole dimostrano che nell’apprendimento del linguaggio le macchine assumono comportamenti pregiudiziali per quanto riguarda razza e genere
L’intelligenza artificiale si perfeziona con il tempo. L’esempio più evidente di questo miglioramento è Google Translate che dopo diversi anni di carriera è sempre più affidabile nelle traduzioni, proprio come se fossero fatte da persone in carne ed ossa. L’altra faccia della medaglia è, però, che i processi automatizzati di comprensione del linguaggio finiscono per ereditare dagli uomini che li hanno programmati anche i pregiudizi. Le ultime ricerche dimostrano che la vicinanza tra gli uomini e le macchine ha trasferito anche convinzioni e atteggiamenti nascosti che i sistemi di intelligenza artificiale non possono fare a meno di imitare.
Come le macchine capiscono il linguaggio
«Molti dicono che l’intelligenza artificiale abbia dei pregiudizi. No. Siamo noi ad averne e l’intelligenza artificiale li sta solo imparando», dice la ricercatrice dell’università di Bath Joanna Bryson. E se una macchina impara un comportamento sbagliato, non è dotata degli antidoti sociali o culturali per contrastarlo o mitigarlo, anche quando questo è palesemente sbagliato. Lo studio, pubblicato dalla rivista Science, si concentra sui meccanismi di comprensione delle parole. «Il principale motivo per il quale abbiamo deciso di studiare questi meccanismi è che negli ultimi anni sono stati fondamentali per permettere ai computer di capire il senso di un discorso», dice Arvind Narayanan, informatico della Princeton University e autore dello studio. I ricercatori hanno preso in esame il modello in grado di rappresentare matematicamente il linguaggio e aiutare le macchine a capire una parola nel suo contesto, molto di più di quello che può fare un dizionario.
I pregiudizi dell’intelligenza artificiale
L’analisi di questo sistema di apprendimento ha, però, rivelato che le associazioni di genere che le macchine imparano sono in qualche modo discriminatorie: se ai fiori viene associata la bellezza e agli insetti il concetto di fastidio, quando si parla di donne si finisce per nominare l’arte, la casa e la letteratura. Ingegneria e matematica sembrano essere solo cose da uomini. Stesso discorso con le razze: le associazioni immediate fatte agli uomini afro-americani sono tutte a parole non proprio piacevoli. Questi risultati sono stati osservati dopo l’analisi di 840 miliardi di parole attinte da testi online.
Gli algoritmi non mentono
Secondo Sandra Wachter, ricercatrice in etica dei dati e algoritmi all’università di Oxford, potrebbe esserci un aspetto positivo della faccenda: «Almeno con gli algoritmi possiamo sapere dove risiede il pregiudizio. Gli uomoni possono mentire sulle ragioni di un loro comportamento. Al contrario, non ci aspettiamo che gli algoritmi ci mentano o ci ingannino», spiega. La vera sfida ora è realizzare un sistema che controlli l’intelligenza artificiale, individui eventuali pregiudizi e riesca in qualche modo a combatterli. In maniera automatica.