Il presidente dell’Istituto per la Competitività (I-Com) e docente di economia politica dedica ai lettori di StartupItalia un estratto del suo ultimo libro “L’economia di ChatGPT” edito da Egea. Con la speranza che l’Europa e l’Italia ambiscano a giocare un ruolo, puntando sugli investimenti e non solo sulle regole
Dopo la seconda guerra mondiale e la nascita della cibernetica e poi l’avvio del programma di ricerca sull’IA, formalizzato nel 1956 con il seminario estivo a Dartmouth, l’ottimismo tecnologico statunitense era al suo picco massimo. Le stesse previsioni degli scienziati, a partire da Herbert Simon, facevano ritenere che l’arrivo di macchine pensanti fosse dietro l’angolo. Certamente erano già entrati nelle grandi aziende e organizzazioni e nei principali laboratori scientifici i mainframe della IBM. A fronte della crescita delle aspettative di automazione, aumentavano però anche i timori sulle possibili conseguenze occupazionali. Una costante della storia, almeno dalla prima rivoluzione industriale in poi.
Queste paure hanno compiuto nei decenni successivi un saliscendi speculare alle fortune della rivoluzione delle macchine. Che era spesso sul punto di arrivare alla massima velocità ma in realtà si tramutava poi in processi molto più lenti e lievi rispetto alle previsioni. Dopo i successi registratisi nel deep learning e la pubblicazione di libri come quello di Brynjolfsson e McAfee che prevedevano una trasformazione radicale del sistema economico, sono ricomparse analisi allarmistiche. Gli stessi due economisti, pur esprimendo una visione positiva sulle conseguenze per l’economia in generale, manifestavano preoccupazione per le conseguenze sul lavoro e in particolare sulla redistribuzione del reddito derivante dalla rivoluzione che stava arrivando. Ben poca cosa però in confronto al pessimismo che caratterizzava il lungo paper pubblicato nel 2013 da due studiosi di Oxford, Carl Benedikt Frey e Michael A. Osborne. I quali si incaricavano subito di affermare che il processo tecnologico in corso aveva caratteristiche diverse da quelle precedenti e dunque non bisognava cadere nella facile tentazione di farsi rassicurare dal passato, che fino a quel momento aveva dimostrato che progresso tecnologico, crescita e lavoro potevano fondamentalmente viaggiare d’amore e d’accordo.
[…] Dopo aver elaborato una metodologia per stimare la probabilità di computerizzazione per 702 professioni, Frey e Osborne analizzavano gli impatti attesi sul mercato del lavoro, con l’obiettivo principale di calcolare il numero di posti di lavoro a rischio di essere automatizzati (e dunque sul punto di essere perduti). La conclusione piuttosto allarmante, per usare un eufemismo, era che circa il 47% dell’occupazione totale negli Stati Uniti rientrava nella categoria ad alto rischio, cioè lavori che gli autori si aspettavano potessero essere automatizzati nel decennio successivo o al massimo due. Apriti cielo, le reazioni dei giornali di tutto il mondo, riprese anche da libri di successo, prefiguravano la disoccupazione di massa, con un occupato su due che doveva ormai prepararsi a finire da un momento all’altro sul marciapiede o ai giardinetti. Fu allora che si iniziò a parlare con molta più insistenza che in passato del reddito universale di base, nella versione italiana reddito di cittadinanza. Non sempre contribuirono positivamente al dibattito di policy, allora come oggi, le opinioni degli scienziati. Che naturalmente vanno sempre ascoltati con attenzione sui temi di cui sanno, ricordandosi però che fanno un mestiere diverso dall’economista o dall’esperto di politiche pubbliche o anche da chi ci governa. Nel 2016 Geoffrey Hinton, che come sappiamo è l’informatico che più di tutti ha rilanciato il deep learning con contributi scientifici eccezionali, disse che «è piuttosto ovvio che dovremmo smetterla di formare radiologi».
A sette anni da quell’affermazione non solo i radiologi continuano a essere occupati ma vengono continuamente sostituiti non già da IA bensì, quando vanno in pensione, da giovani colleghi appena sfornati dalle facoltà di medicina. Allo stesso modo le previsioni di Frey e Osborne al momento non sono state minimamente confermate. L’occupazione in alcuni Paesi, come gli Stati Uniti, è ai massimi storici; il tasso di disoccupazione negli Stati Uniti nel luglio 2023 era pari al 3,5%, meno della metà rispetto al luglio 2013 quando stazionava al 7,4%, dopo gli anni di crisi e di ripresa anemica. Nel Regno Unito, dove (per loro fortuna) i due continuano a lavorare, è poco più alto, pari al 4,2%, ma molto inferiore al tasso di disoccupazione di dieci anni prima, che nel corrispondente mese raggiungeva il 7,7%. A parziale discolpa di Frey, Osborne e altri pessimisti, si può senz’altro affermare che il percorso di adozione dell’IA sia stato più lento di quanto atteso (anche se questo fattore di ritardo dovrebbe far parte dei parametri stimati nel momento in cui si fanno delle previsioni). Per esempio, i due studiosi ritenevano che molti posti a rischio fossero nella logistica e nei trasporti, a causa della guida autonoma. Previsione che, nonostante i grandi progressi tecnologici, si è rivelata chiaramente fallace, almeno finora. Dunque, la domanda che possiamo porci è se l’accelerazione impressa dall’IA generativa e la maggiore facilità di adozione offerta dai nuovi strumenti possano rappresentare un rischio serio, maggiore di quello che prevedevano i due economisti di Oxford, e per quali categorie di occupati. D’altronde è una domanda che di questi tempi risulta particolarmente popolare. Secondo quanto scrive l’Economist, le ricerche su Google per la query «Il mio posto di lavoro è sicuro?» sono raddoppiate a livello mondiale nei mesi successivi all’uscita di ChatGPT.
Secondo uno studio dell’OCSE pubblicato nell’estate del 2023 ma basato su una survey di oltre duemila imprese e 5300 lavoratori condotta nel 2022, prima dunque che emergesse il fenomeno ChatGPT, l’atteggiamento verso l’IA è ambivalente, a cominciare da chi è a rischio di essere sostituito, cioè gli occupati attuali, molti dei quali affermano che l’IA ha finora avuto un impatto positivo sulla qualità del lavoro. Quasi i due terzi (il 63% dei lavoratori) hanno riferito che l’IA ha aumentato il loro piacere nel lavoro: automatizzando mansioni pericolose o noiose, l’IA permette loro di concentrarsi su compiti più complessi e interessanti. […] Tuttavia è anche chiaro che, se da un lato l’adozione dell’IA potrebbe condurre a un miglioramento della qualità del lavoro, il potenziale di sostituzione rimane significativo. Una quota rilevante di lavoratori intervistati (tre su cinque) teme di perdere completamente il lavoro a causa dell’IA nei prossimi dieci anni, in particolare coloro che effettivamente lavorano con l’IA (e dunque sono più consapevoli del potenziale della tecnologia).
Con l’avvento delle ultime versioni di IA generativa, l’OCSE stima che le occupazioni a più alto rischio di automazione rappresentino circa il 27% di quelle attuali. Applicando un nuovo criterio per comprendere le capacità degli LLM e i loro effetti potenziali sui lavori, un altro studio empirico recente osserva che la maggior parte delle professioni mostra un certo grado di esposizione agli LLM, con le professioni a stipendio più alto che generalmente corrispondono a mansioni con una più elevata esposizione. L’analisi indica che circa il 19% dei lavori ha almeno il 50% dei suoi compiti esposti agli LLM, considerando sia le attuali capacità dei modelli sia lo sviluppo di software alimentati da essi o da loro versioni più avanzate. A conclusioni non troppo dissimili arriva un altro paper che presenta una metodologia per valutare l’impatto dell’IA generativa sui diversi lavori (ne vengono classificati ben 774, forse per battere Frey e Osborn oppure perché di continuo nascono nuove professioni?), settori e livelli salariali. Da un lato, le professioni più esposte sono i venditori via telefono nonché gli insegnanti delle scuole (in particolare, di lingue straniere, storia, filosofia e religione). Interessante il confronto con la precedente rilevazione effettuata con la stessa metodologia appena due anni prima, nel 2021, quando le professioni ritenute più a rischio erano quelle dei consulenti genetici, supervisori finanziari e attuari. In altre parole, mentre prima a rischiare di più erano i lavori basati sulle elaborazioni numeriche, ora lo sono quelli fondati sul linguaggio a un livello non sufficientemente qualificato (in media).
Tuttavia, se è giusto che i governi si attrezzino velocemente, come raccomanda l’OCSE nel suo rapporto, sarebbe sbagliato farsi prendere dal panico e provare a stoppare l’IA. Piuttosto occorre guidarla per rendere il lavoratore più produttivo, onde evitare che scatti la tentazione di sostituirlo. È una responsabilità dei governi ma anche delle imprese, dei sindacati e di tutti i soggetti che svolgono un ruolo importante nel mondo del lavoro. L’IA rappresenta un’incredibile occasione per rendere più efficiente il lavoro, consentendo alle persone di svolgerlo meglio e con maggiore soddisfazione. Allo stesso tempo è chiaro che la domanda di occupazione (e soprattutto occupazioni) potrà variare. Si impiegheranno meno persone per alcuni lavori, se ne impiegheranno di più in altri. E soprattutto nasceranno nuove professioni. L’economista del lavoro David Autor ha stimato che nel 2020 oltre il 60% degli occupati negli Stati Uniti svolgevano professioni che nel 1940 non esistevano neppure. Questo è un risultato che non si produce in automatico ma grazie alla capacità del sistema di formare nuove competenze, riqualificare i lavoratori attuali e al contempo favorire l’adozione dell’IA in una modalità che, salvo eccezioni, punti a valorizzare le persone anziché sostituirle.
Testo estratto dal libro L’economia di ChatGPT di Stefano da Empoli, edito da Egea.