L’Artificial Intelligence (AI) rappresenta la tecnologia più dirompente di questo periodo. Sono diverse infatti le sperimentazioni sul suo utilizzo che corrispondono ad altrettante opportunità di trasformare l’hype che circonda l’AI in occasioni di business per le aziende. Ma questo trend registrato da moltissimi osservatori non deve distogliere l’attenzione dai rischi che un impiego acritico dell’Intelligenza Artificiale può comportate.
Reggie Townsend, Vice President, Data Ethics Practice di SAS, sostiene che «l’accelerazione dello sviluppo e dell’applicazione dell’AI sta contribuendo a democratizzare l’accesso alle tecnologie e ha un potenziale incredibile nel migliorare e rendere più efficace il processo decisionale nelle aziende».
Who's Who
Reggie Townsend
Vice President, Data Ethics Practice di SAS
Ciò non toglie, tuttavia, che l’AI in generale, e quella di tipo generativo in particolare, sia all’origine di alcuni problemi. In sostanza, è uno strumento potentissimo per «diffondere la disinformazione, fomentare le divisioni e perpetuare ingiustizie storiche e discriminazioni» rimarca Townsend. Occorre, perciò, promuovere ciò che l’esperto definisce il «senso comune dell’AI» e che noi potremmo indicare con l’espressione “buon senso” con cui avviare una reale comprensione dei benefici, dei limiti e delle vulnerabilità che si aprono oggi con l’Intelligenza Artificiale.
E se l’AI funzionasse come fosse l’elettricità?
Per spiegare il giusto approccio da tenere nei confronti dell’Artificial Intelligence, Reggie Townsend propone un paragone, forse un po’ azzardato ma non del tutto fuori luogo, con l’elettricità. Sebbene gran parte degli utenti non possegga competenze specifiche sul funzionamento di elettroni, trasformatori e cavi di messa a terra, questo non esclude che sussista una vasta consapevolezza sia del funzionamento di una presa di corrente sia della sicurezza di base in materia di elettricità. A nessuno per esempio verrebbe in mente di utilizzare un dispositivo elettrico sotto l’acqua, e questo a prescindere dal fatto che l’abbia imparato a scuola. Vige, in questo caso, una buon senso radicato, spesso appreso dai comportamenti dei genitori, che precede qualsiasi studio specifico in materia.
Analogamente, questo buon senso dovrebbe riguardare l’AI, soprattutto oggi, in un momento in cui la tecnologia continua a potenziare le caratteristiche proprie riconducibili nel suo alveo. Come per l’elettricità, non è necessaria una conoscenza professionale su machine learning, reti neurali e Large Language model (LLM). È sufficiente avere una familiarità, anche superficiale, con l’universo AI per gestirne correttamente funzionalità e pericoli.
Contro i pregiudizi dell’Intelligenza Artificiale
La strada del buon senso da associare all’Intelligenza Artificiale, secondo Townsend, dovrebbe focalizzarsi su alcuni aspetti. Anzitutto non va dimenticato che, in quanto creati dall’uomo, gli algoritmi possono portare con sé pregiudizi e distorsioni tipici del loro “creatore”. Basti pensare a quelli utilizzati nello screening dei curricula. Se gli algoritmi sono stati addestrati su bias cognitivi, la selezione potrebbe favorire alcuni candidati a scapito di altri che presentano determinate peculiarità demografiche, razziali, di genere ecc. Il che non è un problema irrisolvibile. A patto che si proceda alla costruzione di modelli che comprendano dati ampi, inclusivi e diversificati, e che i team di sviluppo siano scelti “al buio”, in virtù cioè delle competenze e non di altri criteri arbitrari.
Allo stesso tempo, i modelli di AI vanno testati periodicamente per verificare il loro impatto e correggere eventuali derive che dovessero prendere con il tempo. In sostanza, l’ideale sarebbe quello di «combinare le abilità delle persone con le potenzialità della tecnologia per formare un sistema di pesi e contrappesi che possa annullare i pregiudizi involontari dell’AI» sottolinea Townsend.
Fidarsi delle macchine, ma fino a un certo punto
Non ci sono soltanto i pregiudizi che l’AI incamera quando aggrega dati che li veicolano. Esiste una forma di “pregiudizio dell’automazione” che spinge le persone a fidarsi ciecamente delle macchine anche quando sbagliano. A nessuno verrebbe in mente di mettere in dubbio l’addizione o la sottrazione svolte da una calcolatrice. Una circostanza che fa considerare l’AI alla stessa stregua. Ma sarebbe un errore.
«Gli specialisti dell’AI – chiarisce Townsend – sostengono che l’addizione e la sottrazione sono prescrittive o basate su regole, mentre l’AI è di natura predittiva. Anche se sembra secondaria, la distinzione è importante perché aumenta la probabilità che l’AI possa replicare i pregiudizi dei dati passati, creare false connessioni o contaminare le informazioni delle cosiddette “allucinazioni”, ossia informazioni che non esistono ma che sembrano ragionevoli e veritiere a un lettore».
Si tratta di una distinzione talmente significativa che fa capire perché un medico non possa affidarsi totalmente alla diagnosi elaborata come output da un sistema di Intelligenza Artificiale o un giornalista al contenuto sviluppato da un chatbot, per quanto evoluto. È opportuno «mantenere un sano scetticismo nei confronti dei sistemi di Intelligenza Artificiale, mettendo in discussione i risultati generati dall’AI, tanto più in scenari ad alto rischio» raccomanda Reggie Townsend. Solo così sarà possibile ad esempio riuscire a distinguere le notizie vere dalle fake news, le immagini reali da quelle fotorealistiche, virtualmente indistinguibili dalla realtà, che derivano dall’AI. Un primo passo, non certo l’unico, per favorire un uso sempre più responsabile e proficuo dell’Intelligenza Artificiale.