L’AI generativa, visto il clamore che la circonda, potrebbe essere considerato un tema per addetti ai lavori. Oppure, all’opposto, uno di quegli argomenti rivolti a quel vastissimo pubblico di non specialisti che, soprattutto da quando OpenAI ha lanciato ChatGPT, ha cominciato a utilizzarlo. In soli due mesi, infatti, ha raggiunto i 100 milioni di utenti.
I CEO potrebbero non nutrire particolare interesse per questa novità, ma sbaglierebbero. Lo sostengono alcuni approfondimenti usciti di recente e rivolti proprio agli amministratori delegati. Uno di questi è un documento a cura di McKinsey & Company dal titolo “Quello che ogni CEO dovrebbe sapere sull’AI generativa”.
AI generativa: è vera rivoluzione o solo moda?
Oltre a ChatGPT, il panorama degli strumenti di Intelligenza Artificiale generativa vede oggi competitor come Bard, Claude, Midjourney e altri, soprattutto per la creazione di contenuti.
La domanda di fondo è se questa tipologia di innovazione sia una moda passeggera o possa effettivamente cambiare le regole del business così come le abbiamo conosciute finora.
In altri termini, l’interrogativo è se l’AI generativa e i Large Language Model (LLM) rivoluzioneranno il mercato alla stessa stregua di invenzioni quali il personal computer o lo smartphone.
Le premesse che fanno propendere per una risposta affermativa – di cui i CEO quindi devono tenere conto – sono che i modelli di base dei chatbot di AI generativa possono essere utilizzati oggi su una vasta gamma di compiti, a differenza di quanto avveniva con le loro precedenti versioni.
Il che però non deve far sottovalutare i rischi e le cosiddette “allucinazioni” che ancora rendono gli output non del tutto affidabili.
AI: principali applicazioni per efficientare processi e flussi di lavoro. Clicca sull’immagine per approfondire
AI generativa e CEO, i rischi cui fare attenzione
Tra gli aspetti su cui i CEO devono essere consapevoli, al fine di mitigare i rischi, vanno considerati specialmente i seguenti.
Equità
I modelli di AI generativa possono generare pregiudizi algoritmici a causa di dati di addestramento imperfetti o di decisioni improprie prese dagli ingegneri che sviluppano i modelli.
Proprietà intellettuale
I dati di addestramento e i risultati possono comportare la violazione di materiale coperto da copyright, nonché di marchi o brevetti. Per questo è importante sapere quali sono stati quelli utilizzati per l’addestramento e come sono stati utilizzati.
Privacy
Potrebbero sorgere dei problemi di privacy se gli utenti inseriscono informazioni che poi finiscono negli output del modello in una forma che rende identificabili le persone. Inoltre, l’AI generativa potrebbe anche essere adoperata per creare e diffondere contenuti dannosi come disinformazione, deepfake e hate speech.
Sicurezza
L’AI generativa può potenziare gli attacchi informatici degli hacker. Ad esempio, è nota una tecnica chiamata Prompt Injection che consente di fornire istruzioni all’insaputa dell’utente finale come cercare voli, aprire link pericolosi o inviare dati sensibili a siti malevoli.
Affidabilità
I modelli possono produrre risposte diverse alle stesse richieste, ostacolando la capacità dell’utente di valutare l’accuratezza e l’affidabilità dei risultati.
Impatto organizzativo
L’AI generativa può influenzare in modo significativo la forza lavoro e l’impatto su gruppi specifici o comunità potrebbe essere negativo.
Impatto sociale e ambientale
Lo sviluppo e l’addestramento di questi modelli ha carattere energivoro. Basti pensate che l’addestramento di un LLM comporta, secondo lo studio, emissioni medie pari a circa 315 tonnellate di anidride carbonica.
Le opportunità da cogliere
Nonostante i rischi elencati, l’articolo di McKinsey è categorico, poiché afferma che “i CEO dovrebbero considerare l’esplorazione dell’AI generativa un must, non un forse”. A supporto di questa asserzione c’è il fatto che i requisiti economici e tecnici per iniziare in questa “esplorazione” non sono proibitivi.
Rimanere fermi, al contrario, potrebbe avere come conseguenza quella di restare indietro rispetto ai concorrenti.
Non c’è, a tal proposito, una ricetta uguale per tutti i CEO.
Alcuni potrebbero decidere che l’AI generativa rappresenta un’opportunità per re-immaginare tutta l’organizzazione, dal dipartimento di ricerca e sviluppo al marketing e alle vendite, fino alla gestione dei clienti. Altri, più cautamente, potrebbero optare per una serie di cambiamenti graduali, partendo da piccole innovazioni per poi ampliarle su più vasta scala.
Una cosa è certa. Uno dei valori principali dell’AI generativa si riferisce all’impiego da parte dei lavoratori di funzionalità integrate nei software già in loro possesso: dalla posta elettronica in cui ci sarà la possibilità di scrivere le prime bozze dei messaggi alle applicazioni di produttività che potranno elaborare velocemente lo schema di una presentazione.
Quattro casi d’uso di AI generativa per i CEO
Ci sono alcuni casi d’uso nei quali l’AI generativa può fare la differenza. McKinsey ne cita quattro che richiedono livelli di complessità differenti, ma che possono essere implementati già oggi con un forte commitment dei CEO.
Cambiare il lavoro dell’ingegneria del software
Il primo esempio è un caso di complessità relativamente bassa con vantaggi immediati in termini di produttività, perché utilizza una soluzione di AI generativa pronta che non richiede una specifica personalizzazione. Va a incidere sul lavoro svolto dagli ingegneri del software. La premessa è che al centro del loro lavoro si collochi la scrittura del codice. Si tratta di un processo ad alta intensità con task reiterati che riguardano numerosi test, ricerche di documentazione, correzione di bug ecc.
Per migliorare la produttività di questi profili, un’azienda ha integrato un prodotto di AI generativa nel software in uso a completamento delle attività di coding. Il sistema, interpellato dagli ingegneri, suggerisce diverse varianti di blocchi di codice che poi vanno valutati e selezionati. È una sottolineatura importante che esclude la possibile sostituzione delle competenze umane da parte dell’Intelligenza Artificiale. In questo modo è possibile ottenere un’accelerazione nella generazione di codice fino al 50%, con costi molto contenuti legati al canone mensile per utente.
Aiutare i Relationship Manager a gestire le informazioni
Il secondo caso coinvolge quelli che McKinsey definisce Relationship Manager (RM), ovvero le figure chiamate a rivedere una mole voluminosa di documenti, come relazioni annuali e altri report con cui rimanere informati costantemente sulla situazione e le priorità di un cliente.
Una banca ha deciso di creare una soluzione che accedesse a un modello di AI generativa tramite un’API per analizzare i documenti e fornire rapidamente risposte alle domande poste dai RM. Questi ultimi devono verificare gli output come farebbe qualsiasi analista junior e, a tale scopo, devono anche affinare il modello per ricevere risposte sempre più accurate (quest’attività viene indicata con l’espressione prompt engineering).
Analogamente al primo caso, l’uso dell’AI generativa accelera il processo di analisi di un RM, da giorni a ore, ma necessita di investimenti maggiori dovuti alla creazione dell’interfaccia utente e alle diverse integrazioni con i software presenti in azienda. Integrazioni per le quali occorre il coinvolgimento di Data Scientist e di altri professionisti nel campo del Machine Learning e della gestione dei dati.
Automatizzare il Customer Support con un chatbot
Il terzo caso riguarda il Customer Support che deve occuparsi di centinaia di richieste in entrata al giorno, con conseguente allungamento dei tempi di risposta.
Un’azienda ha introdotto un chatbot di Intelligenza Artificiale generativa per gestire la maggior parte delle richieste provenienti dalla clientela. L’obiettivo era quello di offrire un feedback rapido con un tono che si adattasse al brand e alle preferenze dell’interlocutore. Per farlo, è stata avviata una roadmap del prodotto composta da diverse fasi per ridurre al minimo gli errori potenziali del modello. Nella prima fase, il chatbot è stato testato internamente con il coinvolgimento degli operatori nel training.
Bot, assistenti personali e chatbot: il Customer Service nell’era dell’AI. Clicca sull’immagine per approfondire
Il passo successivo è consistito nell’ascolto del sistema delle conversazioni tra i dipendenti e i clienti, durante il quale il chatbot poteva dare dei suggerimenti.
Una volta che la tecnologia è stata sufficientemente testata, il modello è stato indirizzato verso ambiti di interlocuzione del cliente, ma con la presenza umana a fungere da controllo.
Alla fine, si è arrivati a un’automatizzazione estensiva del Customer Support. Oggi il chatbot ha accesso a tutti i dati sul cliente e può ricordare conversazioni precedenti, incluse quelle avvenute al telefono, con un cambiamento significativo a paragone dei tradizionali chatbot di assistenza clienti.
L’impegno economico in termini di investimenti in software, infrastruttura Cloud e competenze tecnologiche è stato ovviamente superiore ai due casi visti in precedenza.
Accelerare la fase di scoperta dei farmaci
Nei settori specializzati in cui bisogna attingere a set di dati unici, diversi da quelli solitamente impiegati per addestrare gli altri modelli, la sfida è ancora più complessa. È emblematico un comparto come quello farmaceutico. In tale ambito, i ricercatori dispongono di milioni di immagini al microscopio sulle caratteristiche cellulari rilevanti ai fini della scoperta di nuovi farmaci, ma devono attingere a risorse computazionali e capacità di storage molto elevate.
Un’azienda farmaceutica ha intrapreso un progetto per trovare uno strumento che aiutasse i ricercatori a comprendere più velocemente la relazione tra la chimica dei farmaci e i risultati registrati al microscopio.
Per costruire il modello, sono state utilizzate sia immagini reali già disponibili sia l’ampio set di dati interni di immagini al microscopio. Il modello così addestrato ha non solo migliorato i tempi della riceva, ma ha anche permesso di ridurre il numero di analisi imprecise o fuorvianti.
I costi nell’addestrare un modello da zero possono essere dieci o venti volte più alti rispetto a quelli per la costruzione di un software attorno a un’API che si interfacci con un modello preesistente. Ciò non toglie che il ritorno sull’investimento dovrebbe superare l’investimento finanziario e di capitale umano, giustificando l’effort a monte.
La lezione che i CEO possono trarre dalle applicazioni di AI generativa
Come dimostrano i quattro casi d’uso ricordati sopra, le esigenze di natura tecnica e di competenze variano ampiamente a seconda del tipo di implementazione. Le variabili possono andare dall’utilizzo di soluzioni preconfezionate all’elaborazione di un modello di AI generativa partendo da zero.
L’organizzazione potrebbe avere bisogno di un esperto di machine learning o potrebbe attingere direttamente a un modello in SaaS (Sosftware-as-a-Service) acquistabili sul mercato. Anche in questa evenienza, è implicito comunque poter disporre di personale preparato, compreso quello esistente che deve essere formato a quell’attività di prompt engineering richiamata in uno dei casi. Sebbene le interfacce utente conversazionali dei vari modelli di AI generativa sono semplici da usare, tuttavia l’ottimizzazione del prompting è fondamentale per applicare le migliorie nei flussi di lavoro.
Spetta ai CEO guidare i collaboratori dell’azienda lungo questa strada, favorendo una cultura di ricerca e di sperimentazione che li incoraggi a innovare processi e prodotti grazie all’incorporazione di questi nuovi strumenti nella dotazione informatica standard.