Quanti di coloro che parlano di Intelligenza Artificiale in azienda a conferenze e dibattiti o che acquistano software sarebbero capaci di scrivere anche solo una riga di codice? Il distacco tra i decisori e la materia diventa sempre maggiore nel mondo della tecnologia. Capita sempre con maggiore frequenza di ascoltare confidenze di manager apicali che hanno perso di vista l’outcome dei progetti da loro stessi ideati; oppure aziende che non riescono a portare a casa i vantaggi di investimenti tecnologici per l’eccessiva complessità in cui si sono progressivamente inviluppati, per la mancanza di skill, per la presenza di imbottigliamenti non preventivati.
I manager all’inseguimento dell’innovazione: come tenere il passo
Troppa la distanza tra executive e operatività sugli abilitatori della digital transformation. Vittorio Colao, in un recente convegno di Harvard Business School, alla domanda su quali siano stati i suoi primi intendimenti dopo l’uscita da Vodafone, ha dichiarato che avrebbe voluto fare un corso di Machine Learning, ma gli è stato risposto, con suo disappunto, che avrebbe dovuto prima studiare Python. Secondo Colao è di 10-15 anni il limite massimo di tempo tra fase operativa della propria carriera e fase manageriale, poi si rischia l’ingresso nel tunnel dell’obsolescenza, se non si interviene con energia per mantenere la freschezza dei propri polpastrelli sulle piattaforme del digitale. E ovviamente, più si cresce managerialmente, più diventa ampio il ventaglio delle tecnologie da presidiare.
Un maledetto rebus che vale per tutti. Il Direttore Marketing di Smemoranda, Silvia Granocchia, alterna il proprio ruolo manageriale a continue verticalizzazioni negli applicativi digitali, interrogando fornitori e lavorando a quattro mani ogni volta che può col proprio team.
Alcune iniziative di formazione ed education stanno iniziando ad andare in tal senso, ma colmano solo parzialmente il gap. Microsoft propone la AI Business School per executive, in collaborazione con Insead. Ben fatto, ma ancora molto ad alto livello. La School offre anche programmi tecnici per la verità, ma inseriti in una sezione del tutto separata, tarata per ingegneri del software e programmatori. Si continua a dare per scontato che l’executive rifugga il dettaglio, eviti il coding, ma siamo sicuri di non essere prigionieri di una mentalità anni ’90? E così si relega l’executive all’etereo parlare di ciò che non sa. Tutto questo per quanto ancora è sostenibile?
D’altro canto, la competenza operativa richiede tempo, dedizione, confronto, rielaborazione, storie ed esperienze. E il tempo è l’unica risorsa ancora refrattaria alla legge di Moore, non si moltiplica. Ma le piattaforme digitali, quelle sì, sono sempre di più. Il Politecnico di Milano ne mappa oltre 450 nel solo IOT. E un’agenzia online come Digitouch riporta di utilizzare più di 200 diverse piattaforme.
Per districarsi abbiamo i consulenti. Ma non vogliamo essere prigionieri della loro competenza. Tuttavia anch’essi sono in difficoltà, perchè è raro trovare un professionista in grado di vantare esperienze operative su più di due o tre piattaforme per ambito di lavoro. E sono davvero pochi quelli in grado di offrire ampie, reali e inequivocabili mappature sui fattori critici e le variabili che interessano all’azienda.
Esiste quindi un bisogno di nuova competenza per executive, che non è né la tradizionale formazione ad alto livello su trend e modelli di business, né il training tecnico e di stretto ambito per specialisti. Ed è una questione vitale inventarla, se vogliamo un cambiamento consapevole, una classe manageriale resiliente, un passaggio generazionale in sicurezza e non a salti. Probabilmente occorrono nuove modalità di formazione, disruptive come i nuovi tempi.
Forse non siamo neppure nella IV Rivoluzione Industriale, forse è svoltata un’era, se Cristina Pozzi, co-fondatrice di SingularityU Italy e Impactscool, dice che siamo in un momento di cambiamento così drammatico come quello che fece da scenario all’invenzione della stampa, quando le cronache del tempo dicevano che tutto aveva iniziato a correre più veloce, come mai prima. Quindi forse qualcosa di ancora più forte di una “semplice” rivoluzione industriale.
Intelligenza Artificiale in azienda, il motore di Industry 4.0 e Digital Transformation
Parliamo di Intelligenza Artificiale in azienda ed executive perché, tra gli abilitatori della Digital Transformation, l’AI è quello meglio più dirompente, esponenziale, meglio enucleabile e anche… avvolto da mistero. Un robot lo vedi, lo tocchi, ne apri i meccanismi. L’AI no, talvolta è oscura anche ai suoi stessi creatori, non a caso si parla spesso di black box. Tant’è vero che l’identificazione delle cause e dei fattori è proprio una delle aree funzionali e di analisi, oltre che uno dei possibili problemi per l’executive che vi si avvicina.
Se la Digital Transformation è una locuzione ad ampio spettro, di cui Industry 4.0 è la verticalizzazione in tema manufacturing, l’AI è il suo centro nevralgico: punto d’arrivo di sensoristica, reti e piattaforme (IOT, 5G, software industriali e gestionali), anima di ogni funzione di attuazione (robotica, droni, stampa additiva), deus ex machina della cybersecurity. Già, perché allo stesso tempo ne è il principale alfiere, il castello ultimo da proteggere, ma anche la nemesi, cioè la peggiore minaccia. AI pervasiva, AI contro AI, dalla fabbrica al fintech.
Quali competenze occorrono per maneggiare l’AI
Quali competenze digitali tecniche sono necessarie per essere puri utilizzatori di AI? Qualcuno dice non molte, siamo vissuti bene finora. Nei casi in cui è embedded, ovvero nativa, come è già in molte soluzioni senza che ce ne accorgiamo, basta solo esserne consapevoli e apprezzarne l’evoluzione, sapendone scansare i rischi. Conoscerne i meccanismi, il modo in cui produce risultati ci aiuta infatti a non farci travolgere dai suoi errori, dei suoi bias, intenzionali o non intenzionali. Sapere che ogni tanto alcuni software cartografici testano percorsi alternativi, mai provati prima da alcun driver, col puro scopo di fare challenge alle soluzioni già note, ci aiuta a evitare di affidarci ad occhi chiusi all’algoritmo, cosi come l’essere consapevoli che può essere tratto in inganno da fattori incontrollabili. I calcolatori ci danno soluzioni solo apparentemente raffinate. È noto il caso dell’algoritmo che distingueva le razze dei cani, ma solo perché aveva colto le correlazioni dello sfondo delle fotografie, identificando il cane in base al paesaggio in cui era inserito. Ecco quindi la necessità di istruire la macchina e interpretarne i risultati con una logica di sistema e continui controlli. Si chiama explicability l’ambito di ricerca finalizzato a tracciare, misurare e interpretate i risultati dell’AI. Esistono software a ciò finalizzati, ad esempio Watson OpenScale di IBM. Fairness, invece, è l’area di studio che mira a tutelare dagli errori degli argoritmi, soprattutto quando impattano temi sensibili come etnia, pari opportunità, etica e valori. Infatti, algoritmi basati su serie storiche tendono ad associare determinate professioni a un genere piuttosto che all’altro, o determinati reati a quella o quell’altra etnicità, favorendo pregiudizio e cristallizzazione. Se l’AI decide per noi, ci verrà sempre riproposto il nostro stesso copione, e così a coloro che si occupano di noi, ancora peggio: tutti cercheranno di venderci sempre le stesse cose o quanto presunto.
Possiamo utilizzare l’AI senza quasi rendercene conto. Ad esempio, mentre scrivo, Facebook continua a propormi nuove amicizie (con pessimi risultati, ma si sta impegnando); oppure possiamo attivare l’AI come funzionalità premium di una piattaforma, ed è il caso di SalesForce che ha lanciato Einstein, un semplice bottone attivabile su tutti gli ambienti del CRM più famoso al mondo. Basta premere l’icona del genio e la piattaforma mi suggerisce le migliori modalità per contattare quel determinato cliente, fornendomi le probabilità di conversione associate ai diversi touchpoint.
Occorre conoscere il coding AI per utilizzare droni nell’ispezione delle turbine eoliche? Direi di no, però occorre essere consapevoli dei bias, delle precauzioni e dei rischi; delle fasi del progetto, delle tecnologie coinvolte, dell’effort nostro e del fornitore, di quali competenze sono e saranno necessarie, con quali ruoli, nonché della differenza tra attivare un grande system integrator o una start up, incluso le ripercussioni nell’utilizzare un software piuttosto che un altro, e di quale infrastruttura abbiamo bisogno. Sempre più spesso, inoltre, i grandi vendor hanno una serie di soluzioni già pronte, attraverso moduli o usando il loro market place. Occorre quindi disporre di una mappatura dei servizi sul mercato, su scala internazionale, se non vogliamo correre il rischio di produrre qualcosa che già esistente, magari anche con performance inferiori. E anche essere in grado di combinare segmenti di vendor differenti. Grandi player e piccoli player quindi sono sia concorrenti sia complementari, a complicare ulteriormente la partita dei decisori aziendali.
Dal bisogno ai fornitori Intelligenza Artificiale e Management: le fasi di un progetto AI
In azienda un progetto Intelligenza Artificiale in azienda parte normalmente dall’identificazione di un bisogno di saving o dall’opportunità di ricavi addizionali. È vero che, essendo l’AI applicabile a qualsiasi ambito, molto spesso parlare con un vero esperto può aiutare a identificare aree d’interesse di cui non si immaginava l’esistenza. È il passaggio che sicuramente consigliamo, perché può dare esisti sorprendenti. Molto più spesso in realtà le idee vengono dal mercato su base opportunity, ovvero circolazione di use case di competitor, incontri di filiera, contatti alle fiere, open innovation. Un altro punto di partenza è per gemmazione da progetti di consulenza tecnologica o strategica. Ovviamente le radici di qualsiasi progetto AI sono nella mole di dati, già disponibili o da creare. Da qui il legame fortissimo tra AI e IOT.
Il secondo step è la selezione del fornitore. Alcune aziende stanno iniziando a creare team interni, tuttavia nella maggior parte dei casi ci si rivolge comunque a interlocutori esterni, siano le grandi società di consulenza, come NTT Data ed Accenture, oppure realtà più piccole e specializzate. Tra queste ultime ad esempio un caso di successo è Pikkart, PMI innovativa specializzata in realtà aumentata e computer vision che sta investendo nella creazione di soluzioni che abbinano AI e augmented reality. “I nostri esperti di computer vision e deep learning hanno studiato con la Professoressa Rita Cucchiara dell’Università di Modena e Reggio Emilia, ateneo che diventerà sede del più importante polo nazionale d’intelligenza artificiale,” spiega Lorenzo Canali, fondatore.
Oppure Argo Vision, dinamica realtà milanese che abbina competenze scientifiche di alto livello in ambito machine learning ad una non comune capacità di sviluppo di soluzioni AI-based scalabili. Gli use case vanno dal controllo automatizzato dei grandi parcheggi urbani attraverso telecamere intelligenti alla creazione di esperienze d’acquisto totalmente virtuali. Alessandro Ferrari, fondatore, ci riporta una “crescente richiesta di hard skill tecnologiche che aiutino i manager ad affrontare la rivoluzione neurale. Non è questione di capire se le intelligenze artificiali saranno preponderanti sui processi decisionali delle aziende (è già così), è questione di comprendere quanto siamo in ritardo nella costruzione di una classe dirigente in grado di cavalcare quest’onda anomala culturale e scientifica. L’Europa sta perdendo la sfida dell’innovazione a discapito di Cina e USA. Noi di Argo Vision, a latere della nostra quotidiana attività di consulenza e sviluppo di soluzioni in ambito AI, sosteniamo i nostri clienti anche nel processo di formazione interna sui temi del Machine Learning e della Computer Vision, pilastri della moderna AI. Vogliamo clienti informati e proattivi, questa sfida la si vince, o la si perde, tutti insieme. È finito il tempo della competizione a tutti i costi, servono sinergie: startup e big firm, pubblico e privato, università e impresa”.
Due scale up attive nella computer vision, ma con approcci molto differenti. Fanno da contraltare i grandi player della consulenza e software integration, capaci di offrire soluzioni solide e integrate, tuttavia costose e su cui aleggia il timore di generare nel tempo dipendenza e isteresi.
Le start up hanno un set di servizi incompleto rispetto alle esigenze delle grandi aziende e mancano dei necessari accreditamenti, tuttavia il loro potere seduttivo è notevole, se si moltiplicano hackathon e innovation day in moltissime aziende e il tasso di crescita di quelle che riescono a fare breccia è a doppia cifra. ERG, leader nell’eolico, ad esempio, organizza innovation day un paio di volte l’anno, mentre Olivetti crea hackaton mirati per esplorare idee disruptive. Nel dibattito tra scale up e grandi integratori classici, sta avendo successo l’approccio di Reply, pluripremiata realtà italiana oggi nell’empireo dei leader della software integration su scala internazionale. Il gruppo realizza AI attraverso la propria controllata Data Reply, una unità che partecipa all’arcipelago delle oltre cento SRL in rete che compongono la holding, ognuna attiva nell’unire la dinamica della piccola realtà e il potere di fuoco nell’appartenza al gruppo, con esposizione a clienti come FCA, Mediaset e Pirelli. Copertura su tutte le industry e mercati per incrociare e valorizzare use case di ogni filiera.
Selezioneremo il fornitore di intelligenza artificiale per la nostra azienda facendo challenge su di lui e sulle alternative tecnologiche che propone. In tema di software parleremo di Google, Microsoft, Amazon o di altri sistemi o addirittura di codice proprietario. A seconda delle soluzioni che chiediamo, entreranno in gioco costi che non ci aspettavamo di cloud e hardware, unità di calcolo più moderne, applicazioni AI più avanzate. E di conseguenza i perimetri e le competenze del team. Capiremo però anche che non è necessario esplorare i domini più avanzati dell’intelligenza artificiale in azienda per generare buoni risultati per il nostro business, per cui se incontriamo degli interlocutori onesti e preparati potremo portare a casa ottime prospettive con use case a buon mercato.
Il funnel di progetto per l’adozione dell’intelligenza artificiale in azienda prevede l’identificazione degli obiettivi e dei KPI, la raccolta dei dati, la loro preparazione ed etichettatura, la scelta e l’ottimizzazione del modello, il suo training, il tuning dei parametri, il deployment in produzione, con varie fasi di versioning, ovvero di riedizione in un’ottica di continuo miglioramento, non solo di software ma anche infrastrutturale. “Amazon Web Services – spiega Giuseppe Porcelli, Principal Solution Architect dell’azienda – accompagna l’operatore in tutte queste fasi, fornendo con SageMaker un ambiente modulare compatibile con Google TensorFlow (85% delle applicazioni TensorFlow infatti vengono utilizzate su AWS) o con gran parte delle altre soluzioni sul mercato. Amazon ti aiuta anche nelle fasi operative, ad esempio attraverso il proprio marketplace agevola il contatto con persone (Amazon Mechanical Turk) o società che possono effettuare training del modello, una volta identificato il task. E soprattutto fornisce la potenza di calcolo in cloud attraverso il proprio servizio in GPU scalabile e pay per use.”
Poiché i risultati non sono sempre di facile interpretazione e risultano spesso soggetti a diversi tipi di bias, alcuni vendor propongono soluzioni aperte, ovvero in cui i meccanismi di risoluzione sono leggibili in modo diretto. È il caso di Rulex, realtà di Genova attiva anche sul mercato americano, che fonda sull’unicità del suo modello aperto la propria value proposition; oppure di Erre Quadro, spin off dell’Università di Pisa, specializzata nei brevetti e nell’innovazione Industry 4.0. Tutti comunque ci aiuteranno a sgranare gli output dell’AI per comprenderne i risultati e guardare le block box in controluce.
Machine Learning, cos’è davvero e come usarlo
John McCarthy definì nel 1956 l’AI come la capacità del calcolatore di compiere attività proprie dell’intelligenza umana, dalle più semplici come il riconoscimento di un’immagine, alle più complesse, come pianificazione, decisione, linguaggio. È uno spettro quindi piuttosto ampio, di cui l’ambito oggi più attenzionato si chiama Machine Learning, parola di popolarità sempre maggiore, che ormai quasi sostituisce la parola AI. L’espressione fu coniata nel 1959 da Arthur Samuel, che la definì come la capacità per le macchine di imparare e fare senza essere esplicitamente programmate. In altre parole, è possibile ottenere AI da un calcolatore, ma senza il Machine Learning si sarebbe costretti a scrivere milioni di righe di codice con regole complesse e molteplici alberi decisionali.
Esistono tre livelli di progettualità ML.
Il primo si chiama Supervised Learning, ovvero si istruisce la macchina con esempi etichettati perché possa costruirsi da sola, sulla base di tali esempi, un modello finalizzato alla classificazione, ad esempio di email tra spam e ordinarie. Oppure un modello di regressione lineare, quindi finalizzato all’attribuzione di valori a una variabile sulla base di un input.
Il secondo livello, Unsupervised Learning, consente al calcolatore di identificare autonomamente le strutture dei dati, senza quindi etichettatura da parte dell’operatore. È sufficiente istruire il sistema perché esso procuri risultati, attraverso tecniche di clustering (raggruppamento di casi analoghi) o di riduzione della dimensione dei dati. È utilizzato nell’analisi dei big data, ed è anche la tecnica usata dai motori di ricerca per proporre link di risposta ai nostri input, quando facciamo una qualsiasi ricerca.
Infine, parliamo di Reinforcement Learning quando la macchina è soggetta a un’azione di rinforzo da parte nostra. Non c’è un set di esempi e istruzioni, come nel primo caso, né l’assenza di regole come nel secondo, bensì una funzione matematica di rafforzamento, che ha il vantaggio di consentire la valutazione di situazioni anche non previste dal progettista. Per questo, il Reinforcement Learning consente la creazione di strategie finalizzate al raggiungimento di un obiettivo. Viene utilizzato per l’esecuzione di compiti di precisione dei robot industriali, o anche per divertenti giochi di equilibrio come robot che imparano a camminare e altri giochetti.
La tecnica più in voga del momento è il Deep Learning, che fa uso di reti neurali multi-strato. Entrambi Reinforcement Learning e Deep Learning sono tecniche in cui le macchine imparano autonomamente, ma mentre la prima si basa su funzioni premianti, la seconda si istruisce su un primo data set, per poi applicarsi al successivo. Gli algoritmi possono essere sia di tipo supervisionato, sia non supervisionato. Col DL, il fabbisogno dei dati passa dall’ordine delle migliaia ai milioni di esempi. Esiste anche la possibilità di combinare le due tecniche nel Deep Reinforcement Learning, ambito di ricerca che ha supportato la creazione di algoritmi sempre più performanti, ad esempio per la soluzione dei giochi di strategia. E anche le risorse hardware necessarie diventano sempre più importanti, richiedendo un certo dimensionamento in cloud e preferibilmente CPU grafiche, dette appunto GPU. Alcuni software integrator, infatti, includono nel servizio la disponibilità di accordi con le società in grado di fornire questo tipo di potenza di calcolo.
Ottimizzare i processi: Intelligenza Artificiale e Robot Process Automation (RPA)
Se guardiamo alla digital transformation di un’azienda di servizi, l’AI gioca un ruolo fondamentale. “In Telecom – spiega Marina Geymonat, Direttore dell’AI Center of Excellence di TIM – abbiamo creato Angie, molto più di un chatbot, una piattaforma di interfaccia cognitiva”. Angie dialoga col cliente attraverso ogni canale possibile, sintetizza il problema, che può essere ad esempio l’interruzione del servizio in una cella o in un condominio, e lo trasmette al sistema di Robot Process Automation, RPA. Questo ha il compito di veicolare l’ordine d’intervento al personale sul territorio, per sistemare il guasto (a volte può essere anche un banale roditore che ha interrotto un tratto di fibra). “Quindi – prosegue Geymonat – la combinazione tra AI, dotata della massima flessibilità per capire il problema, e RPA, una macchina di perfetta automazione, scolpita nella pietra per assicurare qualità e ripetibilità del processo risolutivo, ci aiuta ad abbattere in modo drastico i tempi d’intervento per un miglioramento senza precedenti della qualità del servizio”. Angie è stata sviluppata con Microsoft. È vero che impara, ma si tratta di un percorso complesso di continua istruzione della macchina, che richiede tempo, dedizione e un team di persone qualificate, con competenze sui temi tecnici della nostra rete, più che sui linguaggi di programmazione. “Quindi non è vero che l’AI toglie spazio ai lavori tradizionali, al contrario li riqualifica. Istruire una macchina è appassionante, per coloro che hanno avuto occasione di farlo, una nuova sfida e un’opportunità interessante di crescita professionale, alla portata di tutti. Come insegnare a parlare a un bambino. Questa per noi è la digital transformation, l’abbinamento perfetto di AI e RPA, in un contesto di cultura pervasiva dell’utilità del dato e in un’ottica di miglioramento continuo.
Le nuove professioni dell’AI
Nell’esperienza di TIM, per fare ciò occorre un mix di nuove professionalità:
- Data Scientist, persone chiave per programmare l’AI, poche e preziose nel nostro Paese, ma in realtà ne occorre un numero limitato;
- Data Analyst, coinvolti nella pulizia e preparazione dei dati, un lavoro piuttosto voluminoso da fare;
- Data Engineer, sono le persone che fanno funzionare il tutto, gestendo ed elaborando i dati;
- Designers, coloro che, portatori di una vista d’insieme, guardano il progetto e il suo output in modo sistematico, da un capo all’altro, un ruolo moderno e decisivo, prodotto dell’approccio Design Thinking
- Data Visualization, davanti alla mole di risultati prodotti e KPI, occorre qualcuno in grado di rappresentarli sintetizzandoli in modo gradevole, chiaro, significativo. Anche questo è un ruolo recente e ormai indispensabile nel governo del dato e della complessità.
“Il top management, i decisori, sicuramente sono chiamati a un nuovo impegno per comprendere le nuove tecnologie in profondità per poi investire e produrre customer satisfaction e crescita”, conclude Geymonat.
Per i manager è venuto il momento di sporcarsi le mani
Con lo sviluppo dell’IOT, cresce la quantità e lo spettro dei dati disponibili, e, con la continua sofisticazione dell’AI, diventano sempre più articolate le modalità per utilizzarli. Sia che l’AI sia embedded nei sistemi, sia che debba essere progettata ad hoc, comunque conoscerne le logiche passa attraverso un’esperienza sul campo non più rimandabile.
Ad esempio, abbiamo detto che il Deep Learning fa leva su diversi strati di reti neurali, ma cosa significa realmente? E a tutti gli effetti, quali sono le differenze nell’utilizzo dei vari modelli di software attraverso i vari ecosistemi? SAS, Python, Azure, TensorFlow, AWS, IBM Watson… molti manager iniziano a volersi sporcare le mani, non più solo Vittorio Colao.
Pensiamo allora a un diverso modello di formazione, e lo pensiamo in modo disruptive come è disruptive questa era, una formazione nuova che dia una consapevolezza pari a quella dell’esperienza sul campo, in modo condensato ma altrettanto efficace. Affinchè il manager possa acquistare sicurezza e dimestichezza, “passando da un atteggiamento di protezione del suo ruolo a quello di evangelizzatore del cambiamento. Ha capito cosa è l’AI, sa come individuarne le applicazioni, come validare i fornitori e come portarla in azienda” – dice Enrico Campagna, Associate Partner YourCEO. Sa scegliere i consulenti, responsabilizzarli e giovarsene consapevolmente. Non solo in sicurezza, ma per creare vantaggio competitivo.
“Perché se non lo farà lui, lo farà qualcun altro al suo posto. Se non lo farà la sua azienda, lo farà la sua concorrente.” Così chiudeva Vittorio Colao alla Harvard Business School.