Pochi giorni fa il parlamento europeo ha approvato una risoluzione per garantire una maggior protezione dei consumatori nei confronti di aziende che sfruttano la profilazione per adottare decisioni automatiche
Avete mai avuto la sensazione che il vostro biglietto aereo costasse di più se acquistato nel weekend e meno se prenotato il mercoledì mattina? O che magari il costo cambiasse se a comprarlo fosse un vostro amico? Da anni c’è il dubbio che certi beni e servizi siano venduti a prezzi diversi a seconda di chi li acquisti, quando e dove.
Con l’intelligenza artificiale che ogni giorno migliora la sua capacità di analisi e profilazione, prendendo decisioni in modo automatizzato a nostre spese, questo problema potrebbe acuirsi, specialmente se portato alle estreme conseguenze come in quei Paesi dove esiste il cosiddetto social score.
Pochi giorni fa il parlamento europeo ha approvato una risoluzione per garantire una maggior protezione dei consumatori nei confronti di aziende che sfruttano la profilazione per adottare decisioni automatiche nei loro confronti quando offrono i loro servizi.
Benché le risoluzioni non siano documenti vincolanti in quanto si tratta di mere raccomandazioni, sono comunque un messaggio chiaro per la Commissione Europea e il Consiglio: è necessario vigilare sull’applicazione delle norme esistenti alla luce dei cambiamenti tecnologici in atto. Già esistono infatti norme per la tutela dei consumatori, della protezione dei dati personali (GDPR), così come sulla sicurezza dei prodotti e sulla vigilanza del mercato.
Più informazioni ai consumatori
Secondo il Parlamento bisogna garantire che i consumatori siano in grado di capire quali processi si nascondano dietro le offerte loro proposte, come funzionano gli algoritmi che le generano per poter prendere decisioni informate ed eventualmente optare per altri servizi.
Benché l’Europa riconosca l’utilità e il valore di soluzioni come chatbot e assistenti virtuali per offrire migliori servizi ai consumatori, insiste sulla necessità che questi siano a conoscenza di come funzionino visto che avranno un impatto sempre maggiore sulle loro scelte. I cittadini dovrebbero infatti essere in grado di poter contattare qualcuno di “umano” che possa a sua volta prendere delle scelte che correggano quanto deciso dall’algoritmo.
L’uomo infatti deve comunque essere ritenuto responsabile per le decisione della macchina, specialmente nei contesti professionali come nei settori sanitario, legale o bancario, dove gli effetti di decisioni automatiche possono essere drammatici in assenza di una supervisione. Tale supervisione e controllo devono essere indipendenti e messi in atto da professionisti del settore. Tornando quindi al caso delle compagnie aeree e simili, il potenziale acquirente dovrebbe essere messo al corrente del “giochetto”.
Un’altra richiesta che il Parlamento ha fatto alla Commissione con questa Risoluzione è di vigilare sulla corretta adozione del Regolamento sul Geo-Blocking. Quello che si vuole evitare infatti è una “discriminazione dei consumatori, magari automatica grazie agli algoritmi, in base alla loro nazionalità, residenza o posizione temporanea”.
Attenzione ai pregiudizi degli algoritmi
Da ultimo, vista l’importanza dei big data di cui si “nutrono” le macchine per migliorare le decisioni prese dagli algoritmi, sono fondamentali due elementi: il primo è che tali dati non siano biased, ovvero siano in qualche modo colpiti da pregiudizi, anche involontari. Semplificando molto, un algoritmo “giuridico” potrebbe imparare che gli stranieri in Italia debbano essere condannati se i dati con cui è stato istruito sono solo di italiani dichiarati innocenti e stranieri condannati. È quindi fondamentale adottare sistemi di controllo e “ripulitura” di questi dati per evitare questo tipo di situazioni.
il secondo elemento necessario per poter effettuare questo controllo è far sì che gli algoritmi siano sufficientemente trasparenti da garantire il controllo delle autorità indipendenti.
Al momento l’opposizione che viene spesso fatta dalle aziende è che questi siano coperti da segreto industriale o comunque tutelati dalla proprietà intellettuale. Il timore reale è che se ci fosse una fuga di notizie le aziende perderebbero il loro vantaggio competitivo frutto di investimenti ingenti in ricerca e sviluppo. D’altro canto però è ormai palese che non è più possibile confidare che gli algoritmi agiscano per il meglio, la storia recente ha dimostrato troppe volte che non è sempre il caso ed è ora di porre un rimedio.