Privacy weekly | Come ogni venerdì ospitiamo il guest post di Guido Scorza, avvocato e componente del Collegio del Garante per la Protezione dei dati personali. Un viaggio intorno al mondo su tutela della privacy e digitale
Centocinquantasette pagine, quindici capi di accusa, tre miliardi di dollari di potenziale risarcimento dei danni, sedici attori per il momento identificati solo da trentaquattro iniziali e due società trascinate sul banco degli imputati o, almeno, che si vorrebbero trascinare sul banco degli imputati: OpenAI e Microsoft. Sono i numeri dell’atto introduttivo appena depositato davanti a un Tribunale californiano dallo Studio Legale Clarkson con il quale si chiede al Giudice di ammettere forse la prima class action della giovanissima vita di ChatGPT, il servizio di intelligenza generativa più popolare del momento realizzato da OpenAI grazie, tra gli altri, a un finanziamento multimiliardario di Microsoft. Vale la pena dire subito che, per il momento, si tratta solo di una lunga serie di contestazioni che, naturalmente, chiunque può indirizzare a chiunque altro e che le oltre centocinquanta pagine della citazione a una prima veloce e sommaria lettura sono una serie suggestiva, ben scritta e ben alternata di ipotesi, per la verità, forse a tratti un po’ catastrofistiche e, invece, di questioni serie che in un modo o nell’altro vanno affrontate prima di lasciare che l’intelligenza artificiale prosegua la sua corsa verso il futuro e plasmi il destino della nostra società senza lasciarcene essere artefici.
Di cos’è accusato ChatGPT
Il cuore dell’accusa è che OpenAI non avrebbe potuto – e, quindi, dovuto – raschiare miliardi di dati e informazioni, personali e non, da non meglio precisate fonti pubbliche incluso, comunque, certamente, il web, senza chiedere il permesso di miliardi di persone, aziende e soggetti diversi per addestrare i propri algoritmi. Lo scraping cui ha proceduto è semplicemente un furto, sostengono gli attori. Oltre, come si è anticipato, a una dozzina di altre violazioni di altrettanti diritti, incluso, ovviamente, quello alla protezione dei dati personali. E giacché questi diritti che si ipotizzano violati appartengono – o apparterebbero – a milioni di persone, sono milioni le persone che potrebbero – se ammessa dal Giudice – aderire all’azione di classe per invocare il risarcimento dei danni sofferti per mano di OpenAI. Ma non basta perché i ricorrenti, nelle more della decisione, chiedono che il Giudice ordini a OpenAI di bloccare lo sviluppo e il funzionamento di ChatGPT: insomma fino a quando c’è il sospetto che l’attività commerciale sia basata su presupposti illeciti, andrebbe impedito alla società di proseguirla.
Un’azione promozionale da parte di uno studio legale che vuole conquistarsi un posto al sole, un’azione dimostrativa per sollevare, una volta di più, una serie di questioni di straordinaria rilevanza globale che, per inciso, sono, in parte, le stesse alla base dell’iniziativa a suo tempo assunta dal Garante per la protezione dei dati personali italiano, una genuina convinzione che in casa OpenAI e Microsoft le cose siano sfuggite di mano e che si siano effettivamente anteposti i pur legittimi interessi economici ai diritti e agli interessi di milioni di persone, un’azione pilotata da un concorrente geloso del successo della società di Sam Alman. Sono solo alcune delle possibili chiavi di lettura dell’iniziativa che, tuttavia, merita attenzione, considerazione e riflessione perché pone indiscutibilmente questioni che non possono definirsi pretestuose, che esistono e che ci si sta ponendo con sfumature di gravità diverse in tutto il mondo, nelle sedi più diverse e che, ancora, non trovano una risposta compiuta in nessuna legge, decreto o regolamento uscito da questo o quel Parlamento.
IA e diritto d’autore
Per la verità, in buona parte, neppure nel draft di Regolamento europeo sull’intelligenza artificiale appena approvato dall’Europarlamento e ora entrato nel rettilineo che dovrebbe, auspicabilmente, condurre nei mesi che verranno, alla sua approvazione. Perché alla domanda su come debba procedersi per addestrare gli algoritmi di intelligenza artificiale in maniera legittima, sin qui, il draft di Regolamento, nella sostanza, risponde rinviando a una serie di altri sistemi normativi, tra i quali la disciplina sul diritto d’autore e, naturalmente, quella sulla protezione dei dati personali e aggiungendo che, in ogni caso, i contenuti generati artificialmente andranno dichiarati come tali. Ma questo è un profilo diverso. Qui, o meglio li, nell’azione appena promossa davanti alla Corte distrettuale della California del nord, la prima domanda alla quale si cerca una risposta è se chiunque – in questo caso OpenAI – possa pescare a strascico, senza dire niente a nessuno e senza chiedere nessun permesso, autorizzazione o consenso, per addestrare i propri algoritmi e sviluppare intelligenze artificiali destinate a diventare strumenti di business e protagoniste di mercati globali. E questo tema, in effetti, non sembra davvero poter essere lasciato al mercato, alla legge del più forte o del più veloce, al così fan tutti o al così si è sempre fatto in una nuova – come la si definisce nell’atto di citazione – corsa agli armamenti.
Come sempre se volete saperne di più su quello che è accaduto in settimana in giro per il mondo su dati, privacy e dintorni, potete leggere qui le notizie quotidiane di PrivacyDaily o iscrivervi alla newsletter di #cosedagarante.