L’IA Generativa ha un impatto che ci preoccupa e contemporaneamente ci apre prospettive. Informarsi, e capire che si tratta di un sistema socio-tecnologico, è la strada che possiamo seguire per non perderci

tempo di lettura 12′

Questo articolo di Valerio Francola è stato pubblicato da BrainCooperation e lo riprendiamo volentieri qui per il suo interesse.

Quale impatto ha l’Intelligenza Artificiale Generativa sui modelli sociali ed economici?

I recenti sviluppi della c.d. “Intelligenza Artificiale Generativa” e dei Large Language Model (LLM) ha posto nuovamente all’attenzione del dibattito pubblico l’impatto che le General Purpose Technologies potrebbero avere sul sistema economico e sociale. Ci sono molti aspetti critici connessi alla diffusione della I.A. Generativa che riguardano questioni non solo relative alla protezione dei dati, ma anche etiche in relazione al ruolo che tali sviluppi tecnologici possono avere sulla sicurezza e sulla evoluzione dei nostri sistemi sociali ed economici.

Da più parti si chiede una riflessione da parte delle istituzioni nazionali e internazionali al fine di non abbandonare lo sviluppo applicativo dell’I.A. ai soli interessi del Business, ma piuttosto contenere e regolare l’iniziativa e il campo applicativo.

L’”I.A. Generativa” è una sottocategoria dell’Intelligenza Artificiale, ritenuta molto più insidiosa in quanto si concentra sull’uso di algoritmi per generare contenuti, come immagini, testo o suoni, invece che semplicemente riconoscerli o classificarli. La potenza dell’I.A. Generativa si associa con i Large Language Model (LLM) ovvero con modelli che utilizzano algoritmi di deep learning per elaborare e comprendere il linguaggio umano. Si tratta quindi di modelli di apprendimento automatico in grado di eseguire diverse attività di elaborazione del linguaggio naturale (NLP), tra cui l’elaborazione e la classificazione del testo, la capacità di rispondere a quesiti nell’ambito di una conversazione, e la capacità di strutturare valutazioni di alternative di azione in relazione a processi decisionali.

C’è una storia dietro l’I.A.. Essa inizia all’incirca negli anni ’50, con la creazione dei primi algoritmi di generazione automatica di testo. Tra questi, uno dei più noti, è rappresentato da ELIZA, un progetto sviluppato al MIT nel 1966, in cui una chatbot simulava la conversazione con un terapeuta.
Inizialmente, questi algoritmi erano limitati ed elaboravano solo frasi semplici e ripetitive, ma con grande rapidità, negli anni successivi, ricercatori e sviluppatori hanno continuato a migliorare le capacità degli algoritmi rendendoli strumenti in grado di generare testi sempre più affidabili.
Un forte impulso si è avuto poi negli anni ’90 grazie all’introduzione di computer più potenti e allo sviluppo ulteriore dell’apprendimento automatico, grazie ai quali è stato possibile utilizzare l’IA va per generare anche immagini e suoni. Infine, nel corso degli ultimi anni, l’IA generativa è diventata sempre più sofisticata e in grado di generare contenuti sempre più realistici.

Ci sono investimenti di business dietro l’I.A..  Uno degli algoritmi generativi più famosi è GPT (Generative Pre-trained Transformer), un modello di intelligenza artificiale generativa linguistica sviluppato da OpenAI (la società statunitense che ha sviluppato e gestisce la piattaforma). La prima versione di GPT è stata presentata nel 2018, e da allora ci sono state diverse versioni successive con capacità sempre maggiori.
GPT non è l’unico modello di intelligenza artificiale generativa oggi disponibile. Come ormai noto oltre a sistemi come DALL-E e Stable Diffusion, si stanno sviluppando molti progetti portati avanti delle più importanti tech company internazionali. Se infatti da una parte Microsoft ha investito in OpenAI e nel loro progetto ChatGPT integrandolo tramite API nel loro ecosistema software (Bing, Office), allo stesso modo Google ha presentato recentemente Bard, con la prospettiva (già in atto) anche in questo caso di integrarlo nei loro sistemi (Google Chrome, Google Docs etc.). Altre iniziative coinvolgono Meta e il progetto LLaMA, Baidu con Ernie Bot e anche Alibaba sarebbe sul punto di immettere sul mercato il proprio modello di IA generativa integrata nei propri sistemi.
Se gli investimenti aziendali nell’IA continuassero a crescere a un ritmo simile a quello degli investimenti nel software negli anni ’90, i soli investimenti statunitensi potrebbero avvicinarsi all’1% del PIL degli Stati Uniti entro il 2030.

 

Prospettive di applicazione socialmente rilevanti dell’I.A. Generativa.

Entrando più nello specifico di alcune esperienze o di prospettive di applicazione dell’I.A. Generativa, si registrano diverse iniziative interessanti che stanno iniziando a cambiare profondamente alcuni business e anche alcuni settori legati alla formazione, all’assistenza e al welfare.
Il primo evidente impatto si ha nel settore della c.d. industria della creatività e nelle professioni in cui è richiesto di elaborare testi o immagini per via della capacità di generare contenuti di qualità in vari ambiti applicativi. Sia nel campo della elaborazione testuale che nella produzione di immagini, infatti, le nuove prospettive evolutive dell’IA Generativa supportano il lavoro dell’uomo ponendosi come strumenti di visual storytelling, predisponendone agevolmente i testi.

Un altro campo dove si sta maggiormente affermando l’IA generativa e l’uso dei LLM è senz’altro il settore dell’educazione. In questo contesto, infatti, sono in grado di fornire gli strumenti per costruire modelli innovativi di lezioni per studenti grazie alla possibilità di elaborare, oltre al testo, anche i contenuti visivi, utilizzando tutte le informazioni generate in documenti o report di analisi in cui tutto è puntualmente descritto. Sono esempi importanti alcune note app per l’apprendimento delle lingue con alcune funzionalità innovative (Explain My Answer e Roleplay) che portano l’esperienza di apprendimento in-app a un livello completamente nuovo. Si tratta di servizi in grado di spiegare perfettamente all’utente i motivi per cui la propria risposta è stata contrassegnata come errata, dialogando con un assistente virtuale che si configura come un tutor virtuale interattivo da cui è possibile ottenere chiarimenti insieme ad ulteriori esempi sull’argomento. Inoltre, le nuove funzionalità consentono agli utenti di esercitare le proprie abilità linguistiche in una conversazione reale, senza che i discorsi diventino ripetitivi, consentendo un’esperienza di apprendimento più realistica ed efficace che rispecchia gli scenari di comunicazione della vita reale. Esistono inoltre molte organizzazioni educative senza scopo di lucro (ad esempio la Khan Academy) che offrono un’ampia gamma di strumenti e materiali didattici in varie discipline, cercando di garantire parità di accesso all’istruzione per le persone di tutto il mondo, con prospettive più efficaci grazie ai modelli di LLM che possono guidare gli studenti mentre avanzano nei corsi e porre loro domande come farebbe un tutor

Le funzionalità appena descritte sono alla base dell’applicazione dell’IA Generativa e dei LLM anche nei settori del customer service e del marketing, in particolare se utilizzate in contesti aziendali nei quali vengono gestite quantità elevate di dati. Ciò consente di ricostruire perfettamente i profili della propria clientela ed elaborare, grazie al binomio IA generativa e dati, una offerta personalizzata con risposte in tempo reale ai clienti potenziali ed acquisiti. In particolare, forniscono strumenti nuovi per potenziare la fidelizzazione della clientela, tramite le nuove interfacce conversazionali che oggi permettono di gestire il rapporto non solo tramite testo ma anche attraverso la condivisione di immagini che favoriscono la risoluzione più rapida dei problemi nell’ambito di un rapporto “uomo-assistente virtuale” che diventa sempre più reale e soddisfacente.

Altre esperienze importanti nel settore finanziario (ad esempio Morgan Stanley o Strip) dove si utilizzano GPT-4 di OpenAI per gestire librerie di contenuti e informazioni che consentono di eseguire una ricerca completa sul capitale intellettuale della società e fornisce all’istante un report equivalente a quello prodotto da un esperto del settore finanziario.

Infine, come ultimo esempio è interessante riportare alcune applicazioni che l’IA generativa e i LLM potrebbero avere (o già stanno avendo) nel campo dell’assistenza ai disabili e alle persone affette da deficit cognitivo. Esistono per esempio app mobili (es. Be My Eyes) che forniscono supporto alle persone non vedenti e ipovedenti, aiutandole a riconoscere gli oggetti e gestire le situazioni quotidiane. Più recentemente sistemi basati su GPT-4 o tecnologie simili consentono di affiancare terapisti e operatori migliorando i servizi domiciliari di assistenza estremamente importanti per persone con difficoltà fisiche e cognitive.

Gli impatti sui processi produttivi e sul mercato del lavoro.

Alcuni recenti studi (Goldman Sachs, 2023; OECD, 2023) hanno diffuso alcune stime e considerazioni che riguardano l’impatto dell’IA Generativa sul mercato del lavoro. Si stima che le ultime evoluzioni potrebbero portare all’automazione di un quarto del lavoro svolto negli Stati Uniti e nei Paesi dell’Eurozona. Tali stime poggiano sul fatto che i sistemi di IA generativa come ChatGPT, in grado di creare contenuti indistinguibili da quelli prodotti dall’uomo, potrebbero innescare un boom di produttività che farebbe aumentare il prodotto interno globale del 7% in un range temporale di 10 anni. In base ai dati relativi alle mansioni tipicamente svolte da migliaia di occupazioni, si calcola che circa due terzi dei posti di lavoro negli Stati Uniti e in Europa siano esposti ad un certo grado di automazione tramite applicazioni di I.A.
C’è un dato però che dovrebbe chiarire maggiormente il ruolo dell’IA e delle sue evoluzioni: la maggior parte delle persone vedrebbe infatti automatizzata meno della metà del proprio carico di lavoro e probabilmente continuerebbe a lavorare, liberando un po’ del proprio tempo per attività più produttive. Il focus, quindi, sembra continuare ad essere diverso da quanto generalmente si pensa: l’IA, rispetto ad altre tipologie di tecnologie moderne, se ben regolamentata e implementata, non sostituisce il lavoro dell’uomo ma lo affianca e lo rende più produttivo e agevole, aumentando le prospettive di crescita professionale, creando nuove occupazioni e migliorando i modelli di business aziendali. Negli Stati Uniti, ciò dovrebbe riguardare il 63% della forza lavoro.

Nel contempo, il 7% dei lavoratori statunitensi svolge lavori in cui almeno la metà delle mansioni potrebbe essere svolta dall’IA generativa e aumentando di conseguenza la loro percentuale di vulnerabilità e quindi di potenziale sostituzione. Nei Paesi in via di sviluppo, invece, dove i lavori manuali rappresentano una quota maggiore dell’occupazione, si stima che circa un quinto del lavoro potrebbe essere svolto dall’IA, ovvero, complessivamente, circa 300 milioni di posti di lavoro a tempo pieno.
A rafforzare l’idea che l’IA rappresenti un supporto per il lavoro dell’uomo, altri studi rilevano che l’80% della forza lavoro statunitense potrebbe veder svolgere circa il 10% dei propri compiti dall’IA generativa. I risultati indicano che le occupazioni che richiedono abilità, competenze specialistiche e capacità di pensiero critico, hanno meno probabilità di essere influenzate dagli attuali modelli linguistici (LLM). Al contrario, le occupazioni che richiedono capacità di programmazione e scrittura sono più suscettibili all’influenza dei modelli LLM.

Questi numeri alimentano un dibattito diffuso sul potenziale delle tecnologie I.A., sia nel rilanciare la crescita della produttività, ma anche per impedire impatti eccessivamente negativi. Si cita come esempio che i c.d. colletti bianchi potrebbero rischiare di subire un destino simile a quello degli operai manifatturieri degli anni Ottanta, se non vengano implementate corrette politiche in grado di porre i nuovi sviluppi dell’IA su dei binari che migliorino il sistema-lavoro e non ne amplifichino, al contrario, alcune dinamiche distorsive e penalizzanti per alcune categorie.

 

Da più parti si chiede una riflessione da parte delle istituzioni per contenere e regolare l’iniziativa e il campo applicativo. La sempre più pervasiva ed esponenziale applicazione dell’IA generativa e dei modelli di LLM nell’ecosistema sociale ed economico, pone alcune questioni che riguardano sicurezza, protezione dei dati, diritto d’autore, disinformazione, etica, perdita potenziale di posti di lavoro, che sono oggetto del dibattito pubblico e alla base di analisi e provvedimenti/azioni di iniziativa privata e pubblica.
Tra le questioni rientra senz’altro il possibile utilizzo dell’IA generativa in contesti illegali, come denunciato recentemente dall’Europol, l’agenzia per le forze dell’ordine, secondo cui i rapidi progressi dell’IA generativa potrebbero alimentare fenomeni di cyber-war e cyber-crime, divenendo un modello di business criminale chiave del futuro.
Il recente provvedimento del Garante per la protezione dei dati personali (30 marzo 2023, provvedimento n. 9870832) ha bloccato l’uso di ChatGPT di OpenAI, aprendo contestualmente una istruttoria. Nel provvedimento, l’autorità italiana, rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI e l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di sviluppare gli algoritmi che consentono il funzionamento della piattaforma.
L’azione dell’autorità italiana ha attirato anche l’attenzione di altre autorità europee e internazionali (Francia, Germania, Olanda e Giappone) e si inserisce in un contesto nazionale e internazionale dove si registrano già alcune iniziative comuni, seppure evidenziando aspetti applicativi critici e lasciando spazio a reazioni contrastanti.

Ma le preoccupazioni degli esperti vanno ben oltre le questioni giuridiche, e riguardano questioni etiche connesse agli scenari relativi alle possibili future applicazioni dell’I.A. Generativa. Sono oramai numerosi articoli, lettere e paper che lanciano allarmi riguardo la possibilità che lo sviluppo dell’intelligenza artificiale possa sfuggirci di mano e che possa quindi, un giorno, sottrarci il controllo della nostra civiltà.
Da più parti si chiede una riflessione da parte di autorità e istituzioni, nazionali e internazionali, al fine di non abbandonare lo sviluppo applicativo dell’I.A. ai soli interessi del Business, ma piuttosto contenere e regolare l’iniziativa e il campo applicativo.
In questo contesto è interessante evidenziare la lettera aperta promossa da ricercatori e manager della Silicon Valley, tra cui anche Elon Musk, che chiedono di interrompere temporaneamente (6 mesi) lo sviluppo dei sistemi di Intelligenza Artificiale avanzati come ChatGPT poiché ritengono necessario una pausa di attenta riflessione sul percorso più corretto da intraprendere nell’ambito dello sviluppo di tali tecnologie. La lettera, pubblicata dal Future of Life Institute e ripresa dal Financial Times, riporta all’attenzione del dibattito pubblico i temi etici che ruotano intorno agli ultimi stadi evolutivi dell’intelligenza artificiale, definiti dai firmatari come una corsa fuori controllo dove ogni laboratorio per l’intelligenza artificiale mira a sviluppare e dispiegare potenti menti digitali che nessuno, neanche i creatori, possono capire, prevedere e controllare.
Di recente si è aggiunto Geoffrey Hinton, considerato il Nobel dell’I.A., che lasciando Google rappresenta le sue preoccupazioni alla rivista MIT Technology Review “già oggi Gpt4 ha una conoscenza sconfinata rispetto a quella di un uomo. A differenza di noi umani, apprendono separatamente e possono immediatamente condividere le loro conoscenze”.

Tuttavia, per molti studiosi, queste visioni evolutive sono ad oggi ancora irrealistiche. L’attenzione andrebbe piuttosto orientata verso i rischi che viviamo oggi, nel momento in cui questa tipologia di strumenti vengono utilizzati per generare disinformazione, fake news, e quando modelli di Intelligenza Artificiale Generativa e di Large Language Model vengono implementati in sistemi più complessi, non completamente trasparenti agli occhi dell’utente e di cui non si ha certezza sull’affidabilità del prodotto finale

L’evoluzione dell’intelligenza artificiale non può essere affrontata come un semplice sistema tecnologico, ma piuttosto come un sistema socio-tecnologico che già nell’idea di ciascun sviluppatore deve essere progettata prefigurando gli impatti ed i rischi sociali che produrrà. In questa ottica l’obiettivo dovrebbe essere quello di preoccuparsi di implementare tecnologie basate su Intelligenza Artificiale per il bene della collettività e del sistema economico-produttivo, con particolare attenzione anche alle nostre Democrazie per le quali un uso improprio di tali tecnologie può rappresentare un rischio concreto.

Purtroppo, regole e innovazione sembrano avere due velocità estremamente diverse e ne è un esempio il Regolamento sull’Intelligenza Artificiale che l’Unione Europea sta faticosamente definendo. Un testo che, nella sua versione originaria, nasce temporalmente prima che nuovi sviluppi dell’I.A. Generativa divenissero di dominio pubblico e che ovviamente, ora, il Consiglio europeo sta tentando di aggiornare alla luce delle ultime novità. Ciò nonostante, nella sua fase conclusiva di approvazione, il Regolamento che vedrà la luce, sarà quasi certamente un testo in ritardo rispetto all’evoluzione che l’IA avrò raggiunto in quel momento.

Riferimenti

  • Francola V., (2022) “L’evoluzione dell’Intelligenza artificiale generativa e dei Large Language Model e alcuni accenni sul loro impatto sui nostri modelli sociali e economici”, Mondoperaio n.4/2023
  • Perrucci A. (ed.), Fondazione Astrid, (2022) Il calcolo ad alta prestazione. Italia ed Europa nella competizione mondiale, Passigli Editori, Firenze
  • Lane M., Williams M. (2023), “Defining and classifying AI in the workplace”, OECD Working Paper 290, 24 marzo 2023
  • Lane M., Williams M. (2023), “The impact of AI on the workplace: Main findings from the OECD AI surveys of employers and workers”, OECD Working Paper 289, 22 marzo 2023
  • Hatzius J., Briggs J., Kodnani D., Pierdomenico G., (2023), “The Potentially Large Effects of Artificial Intelligence on Economic Growth”, Goldman Sachs, https://www.ansa.it/documents/1680080409454_ert.pdf
  • Eloundou T., “Manning S., Mishkin P., Roc D. (2023), GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models”, Working paper https://arxiv.org/pdf/2303.10130.pdf
  • “Future of Life, Pause Giant AI Experiments: An Open Letter”, 12 aprile 2023 https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  • “Geoffrey Hinton tells us why he’s now scared of the tech he helped build”, MIT Technology Review 2 maggio 2023, https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/

Photo by Alex Knight

creative-common

Di Brain Cooperation

centro studi per lo sviluppo dei contesti organizzativi l’Associazione svolge attività di studio e ricerca, di formazione e informazione, di promozione e diffusione della cultura organizzativa socio-tecnica. In particolare intende sostenere la riflessione sullo sviluppo di contesti lavorativi “capaci” di abilitare le persone, e riportare l’attenzione sull’organizzazione come cultura, come disciplina, come competenza fondativa del ruolo manageriale. La community professionale è costituita da docenti, ricercatori, consulenti, dirigenti e professional che operano in imprese, enti, o istituzioni educative ed impegnati, nello svolgimento delle proprie responsabilità, ad attivare processi di sviluppo della cultura manageriale, di innovazione organizzativa, di condivisione di conoscenze, e crescita delle risorse umane. braincooperation.it