SCENARI

L’etica nell’era dell’AI: le possibili ripercussioni a livello discriminatorio dell’uso degli algoritmi

Le applicazioni che impiegano i modelli matematici evoluti non solo riflettono gli stessi bias presenti nella società, ma li inglobano in modi che risultano opachi e inaccessibili alla comprensione umana. Un problema conosciuto come “scatola nera” dell’Intelligenza Artificiale. Un’analisi degli aspetti da considerare, con recenti esempi e provvedimenti del legislatore

Pubblicato il 05 Giu 2023

Filippo Benone

Legal Consultant P4I - Partners4Innovation

Giacomo Borgognone

Legal Consultant P4I - Partners4Innovation

Anna Cataleta

Senior Partner, P4I – Partners4Innovation

Etica e AI

L’Intelligenza Artificiale (AI) è diventata un fulcro cruciale dell’innovazione tecnologica, permeando molteplici settori della società moderna, dall’assistenza sanitaria alla finanza, dalla pubblicità all’educazione.

Tuttavia, la diffusione di queste tecnologie porta con sé profonde questioni etiche e sociali.

Un problema particolarmente grave, e sempre più discusso tra accademici, esperti del settore e policy maker, è la discriminazione che può derivare dall’utilizzo di sistemi AI.

Etica e AI, il ruolo dei bias

La questione dei pregiudizi nell’AI è radicata nella realizzazione stessa degli algoritmi. Essendo prodotti da esseri umani, questi algoritmi possono involontariamente ereditare i bias (in italiano pregiudizi) dei loro creatori. I bias possono avere conseguenze drammatiche, contribuendo a perpetuare e consolidare le discriminazioni esistenti.

Non solo gli algoritmi di AI possono ereditare i pregiudizi dei loro creatori, ma possono anche sviluppare discriminazioni a causa di set di dati di addestramento non equilibrati. Recenti ricerche in merito hanno evidenziato come alcuni software di riconoscimento facciale commerciali mostrassero un’alta percentuale di errori nell’identificazione dei volti femminili di colore rispetto a quelli maschili bianchi. L’impiego di dati di addestramento non equilibrati può dunque condurre a un rafforzamento e amplificazione delle discriminazioni esistenti.

Le discriminazioni di genere

L’AI non solo può diffondere le discriminazioni esistenti; può anche creare nuove forme di discriminazione. Un recente studio ha rivelato che gli algoritmi di pubblicità online possono trattare in modo diverso gli utenti in base al loro genere, anche quando gli inserzionisti non lo intendono. Questa è una forma di discriminazione algoritmica, un fenomeno emergente che può avere gravi ripercussioni sociali.

Sorge poi il problema della ‘caixa-preta’, o ‘scatola nera‘ dell’AI ossia l’opacità di molti algoritmi di AI, che rende estremamente difficile, se non impossibile, capire come un algoritmo arriva a una certa conclusione. Questa opacità rende difficile identificare e quindi combattere la discriminazione.

Ulteriori approfondimenti hanno rivelato un altro aspetto problematico: l’insensibilità degli algoritmi ai cambiamenti sociali. Se gli algoritmi sono addestrati su dati storici, possono perpetuare le discriminazioni del passato anche quando la società sta cambiando.

Gli effetti discriminatori nel mondo del lavoro

I sistemi di Artificial Intelligence e gli algoritmi alla base degli stessi possono esporre ognuno di noi al rischio di discriminazione in tutti gli aspetti della nostra vita1. Tuttavia, i rischi sono più significativi in alcuni settori piuttosto che in altri. Ad esempio, due ambiti a forte rischio sono il mondo del lavoro e le attività di polizia.

Il tema non è nuovo e, nell’ambito del contesto lavorativo, gli algoritmi sono già stati oggetto di attenzione in più occasioni poiché hanno portato a conseguenze discriminatorie. Tra i casi più noti si ricordano l’Algoritmo Frank2 e il caso del 2015 relativo all’algoritmo utilizzato da Amazon per i processi di selezione.

Il primo riguarda una situazione in cui è stata accertata la discriminazione conseguente all’utilizzo di un algoritmo che penalizzava i lavoratori che esercitavano i propri diritti, quali il diritto di sciopero, facendo sì che gli stessi ricevessero meno ordini rispetto ad altri lavoratori, rendendo impossibile di fatto l’esercizio del diritto di sciopero. L’algoritmo di Amazon invece, a causa di una falla nelle istruzioni iniziali e al processo di Machine Learning, ha portato a favorire i candidati uomini discriminando le donne.

Un altro aspetto da considerare nell’ambito lavorativo è il possibile rischio dell’utilizzo di sistemi di AI come forma di controllo dei lavoratori.

I pregiudizi nelle attività di polizia

Il secondo settore in cui un utilizzo dell’AI può portare ad effetti discriminatori è quello delle attività di polizia. Anche in questo caso, particolari rischi possono derivare dall’utilizzo di sistemi di polizia predittiva o di identificazione biometrica.

Ad esempio, i sistemi predittivi potrebbero portare la polizia ad arrestare più persone nei quartieri dove sono maggiormente presenti le minoranze etniche a causa di bias degli algoritmi, che potrebbero far concentrare le attività di polizia in determinate aree anziché in altre.

Per quanto riguarda l’utilizzo di dati biometrici, seppur per motivi diversi dalla discriminazione, il tema è stato già oggetto anche dell’attenzione del Garante per la protezione dei dati personali nel provvedimento n. 50 del 10 febbraio 20223. I sistemi di AI potrebbero quindi “rafforzare la discriminazione e i pregiudizi dando loro un’apparenza di obiettività”4.

Gli emendamenti del Parlamento Europeo all’AI Act

Le possibili discriminazioni negli ambiti del lavoro e dell’attività di polizia sono state considerate anche dal legislatore europeo. In particolare, il testo dell’AI Act, come emendato dal Parlamento Europeo e che ha visto un voto decisivo nella giornata di giovedì 11 maggio 2023 nelle commissioni congiunte per il Mercato interno e la protezione dei consumatori (Imco) e per le Libertà civili, la giustizia e gli affari interni (Libe), ha tenuto in considerazione i sistemi di AI che potrebbero portare ad effetti discriminatori.

Infatti, il Parlamento Europeo ha ampliato l’elenco delle pratiche vietate, tra cui sono stati inclusi: i sistemi di riconoscimento delle emozioni nei settori delle forze dell’ordine, della gestione delle frontiere, del posto di lavoro e dell’istruzione e i sistemi di identificazione biometrica in tempo reale, i quali sono passati da sistemi a rischio limitato a vietati. Il divieto è stato esteso ai modelli di AI per la categorizzazione biometrica e la polizia predittiva.

ai act

L’etica dell’Intelligenza Artificiale e le norme applicabili oggi, in attesa dell’AI Act. Clicca sull’immagine per saperne di più

Etica e AI, le sfide aperte

Nel cercare di disegnare un bilancio della questione, ci troviamo ad affrontare una serie di sfide tanto promettenti quanto problematiche che l’Intelligenza Artificiale pone davanti a noi.

L’evoluzione rapidissima della tecnologia ci ha condotto a un crocevia cruciale per il futuro della nostra società, dove il potenziale dell’AI si contrappone alle serie implicazioni in termini di discriminazione e bias.

Il mondo del lavoro e le attività di polizia rappresentano due esempi emblematici di settori in cui le tecnologie basate su AI, se non gestite con attenzione e consapevolezza, possono acuire fenomeni discriminatori preesistenti o addirittura generarne di nuovi. L’AI, infatti, non solo riflette gli stessi bias presenti nella società, ma li ingloba e li riproduce, spesso in modi che risultano opachi e inaccessibili alla comprensione umana, un problema conosciuto come “scatola nera” dell’AI.

Gli ostacoli all’accountability

Da un punto di vista giuridico, questa condizione di opacità pone questioni molto delicate in termini di responsabilità e trasparenza. Il principio di accountability, ovvero la capacità di rispondere delle proprie azioni, trova infatti ostacoli notevoli nel contesto dell’AI. Quando le decisioni vengono prese da un algoritmo, stabilire chi possa essere ritenuto responsabile per eventuali comportamenti discriminatori può diventare un compito arduo.

Questo aspetto pone nuove sfide per la giurisprudenza e per il diritto in generale. La figura del “soggetto di diritto” è stata pensata e strutturata nel corso dei secoli per riferirsi a entità dotate di coscienza e volontà, che possono rispondere delle proprie azioni. L’AI, tuttavia, non ha una volontà propria e non può essere ritenuta responsabile nel senso tradizionale del termine.

D’altra parte, lasciare impuniti comportamenti discriminatori perpetrati da un algoritmo sarebbe inaccettabile. Si rende quindi necessario elaborare nuovi strumenti giuridici che possano regolare efficacemente l’uso dell’Intelligenza Artificiale, garantendo al contempo il rispetto dei diritti umani e delle libertà fondamentali, rendendo il rapporto tra etica e AI più equilibrato.

Anticipare le traiettorie di sviluppo

Nel quadro normativo europeo, la recente approvazione degli emendamenti all’AI Act da parte del Parlamento Europeo rappresenta un importante passo avanti. Queste nuove regole mirano a mitigare i rischi legati all’uso improprio degli algoritmi ampliando l’elenco delle pratiche vietate e introducendo misure volte a garantire un maggiore controllo sulle applicazioni più rischiose dell’AI. Questo intervento legislativo mostra una consapevolezza crescente dei problemi che l’AI può portare.

Nonostante questi progressi, le sfide che l’Artificial Intelligence pone alla giustizia e alla tutela dei diritti umani sono tutt’altro che risolte. Le tematiche legate alla discriminazione e al bias necessitano di ulteriori ricerche e dibattiti, sia a livello accademico che legislativo. Sarà cruciale cercare di anticipare le possibili conseguenze dell’uso di queste tecnologie, lavorando per costruire un quadro normativo che sia in grado di affrontare efficacemente i problemi emergenti.

In conclusione, l’Intelligenza Artificiale rappresenta una potente leva di cambiamento, con una portata che non ha precedenti nella storia. Siamo ancora all’inizio del nostro percorso di comprensione di come queste tecnologie possano essere utilizzate al meglio, in modo etico e rispettoso dei diritti di tutti. È essenziale che si continui a esplorare questi temi con l’obiettivo di sviluppare un’AI che sia davvero al servizio dell’umanità, capace di migliorare le nostre vite senza rinunciare ai valori di equità e giustizia che stanno al cuore della nostra società.

1 Défenseur des droits e CNIL “Algoritmi: prevenire la discriminazione automatica”.
2 Ordinanza del Tribunale di Bologna del 31/12/2020
3 Ordinanza ingiunzione nei confronti di Clearview AI – 10 febbraio 2022, [doc. web n. 9751362]
4 Défenseur des droits e CNIL “Algoritmi: prevenire la discriminazione automatica”, p. 6

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3