Nell’ambito dell’AI Act, arriva dall’Unione Europea la prima bozza del Codice di Condotta per l’AI per uso generale (GPAI). L’obiettivo è chiaro: fornire linee guida per lo sviluppo responsabile e l’implementazione di modelli di IA generica, ovvero modelli capaci di svolgere compiti differenti (generare testi, immagini e risolvere problemi complessi in vari contesti), come il GPT-4 di OpenAI.
Cos’è il Codice di Condotta per l’AI per uso generale (GPAI)
La bozza, pubblicata lo scorso 14 novembre, è il risultato del contributo del lavoro di 13 esperti e stakeholder, tra cui fornitori di modelli, rappresentanti degli Stati membri dell’UE, organizzazioni della società civile e osservatori internazionali, in modo da creare un codice che rifletta le esigenze del settore e che possa essere usato come punto di riferimento per la conformità normativa.
Il documento, composto da 36 pagine, mira infatti a fornire un codice “a prova di futuro” che sia anche adeguato alla prossima generazione di modelli che verranno sviluppati e rilasciati nel 2025 e successivamente. Sintetizza i 430 contributi ricevuti da associazioni esterne e sarà oggetto di discussione da parte di oltre un migliaio di enti, tra cui aziende, università, centri di ricerca e studi legali, che hanno risposto all’invito della Commissione per un incontro previsto per il prossimo 28 novembre.
Il progetto del Codice si integra con principi guida discussi dal G7 nell’ambito dell’Intelligenza Artificiale di Hiroshima.
Obiettivi del Codice di Condotta per l’AI per uso generale
L’obiettivo del codice è stabilire norme che siano sufficientemente robuste da garantire la sicurezza e la fiducia, ma anche abbastanza flessibili da permettere alle imprese di innovare e competere a livello globale. Quanto scritto nella bozza pone l’accento sulla trasparenza, la tutela del copyright per i creatori di modelli, una classificazione dei rischi sistemici e le metodologie per realizzare un piano di Risk Management e Risk Mitigation legati ai modelli avanzati di Intelligenza Artificiale.
Vediamo gli obiettivi nel dettaglio:
- Il Codice dovrebbe chiarire ai fornitori come dimostrare la conformità e consentire all’Ufficio AI (Istituito all’interno della Commissione Europea) di valutare, a sua volta, la compliance dei provider che scelgono di affidarsi al codice per dimostrare di star adempiendo alle linee guida. Ciò può includere la possibilità di avere una sufficiente visibilità sulle tendenze nello sviluppo e nella diffusione di modelli di AI per scopi generali, in particolare dei modelli più avanzati.
- I fornitori di modelli di IA devono assicurarsi che i loro modelli siano ben compresi lungo tutta la catena del valore dell’IA, per facilitare l’integrazione delle applicazioni in prodotti successivi e, chiaramente, rispettare le normative e le leggi sull’IA.
- Adottando una serie di misure preventive, i fornitori devono rispettare efficacemente la normativa dell’Unione Europea sul diritto d’autore e sui diritti connessi.
- I fornitori di modelli di IA generici possono valutare e mitigare efficacemente i potenziali rischi sistemici adottando un approccio strutturato e continuo. Questo include l’identificazione e la mappatura dei rischi associati allo sviluppo, all’immissione sul mercato e all’uso dei modelli di IA, seguita da una valutazione dettagliata della loro probabilità e impatto.
Un codice flessibile
Come accennato, il codice è progettato per trovare un equilibrio tra le esigenze di un mercato competitivo e la necessità di un quadro regolativo che protegga sia gli utenti che gli operatori. Una regolamentazione eccessivamente rigorosa potrebbe penalizzare le imprese europee, costringendole a operare in condizioni meno favorevoli rispetto a quelle situate in regioni con normative più flessibili. È, però, anche vero che un quadro regolativo insufficiente potrebbe minare la fiducia dei consumatori e esporre l’ecosistema tecnologico europeo a significativi rischi sistemici, mettendo a repentaglio la sua sostenibilità a lungo termine.
Gli step di redazione del codice
L’Ufficio per l’IA ha organizzato un evento inaugurale lo scorso 30 settembre, che ha visto la partecipazione di un migliaio di partecipanti, inclusi molti rappresentanti di organizzazioni professionali. La redazione del codice è riservata ai partecipanti idonei selezionati tramite un bando e il processo è iniziato formalmente il 30 luglio 2024.
La plenaria è suddivisa in quattro gruppi di lavoro tematici, con ciascuna sessione di discussione facilitata da presidenti e vicepresidenti scelti tra esperti indipendenti.
Dopo l’evento inaugurale, i partecipanti si incontrano virtualmente per ulteriori sessioni di redazione, durante le quali possono esprimere commenti o inviarli per iscritto entro due settimane. Il processo è inclusivo e trasparente, coinvolgendo numerose parti interessate, tra cui fornitori di modelli di IA per uso generale, organizzazioni di settore, società civile, il mondo accademico ed esperti indipendenti.
I fornitori di modelli di IA per uso generale, principali destinatari del codice, partecipano a seminari dedicati per contribuire a ogni ciclo di elaborazione. Il primo di questi seminari si è tenuto lo scorso 23 ottobre 2024. Tutte le discussioni sono condotte in trasparenza, con un coinvolgimento attivo dei rappresentanti degli Stati membri dell’UE attraverso il consiglio per l’IA.
Inoltre, l’Ufficio per l’IA ha invitato alla plenaria enti e agenzie pubbliche globali, per collaborare alla valutazione e mitigazione dei rischi associati ai modelli di Intelligenza Artificiale per uso generale.
Quando entra in vigore il Codice di Condotta per l’AI per uso generale
La pubblicazione della versione finale del Codice di Condotta è prevista per maggio 2025 e diventerà un caposaldo per l’applicazione pratica delle norme stabilite dall’AI Act. Ad agosto 2025, invece, entreranno ufficialmente in vigore le norme che disciplinano i modelli di IA per uso generale. Il codice di condotta non sarà obbligatorio, ma fungerà da strumento complementare all’AI Act, che impone obblighi vincolanti per i fornitori di sistemi di IA ad alto rischio.
Il ruolo dell’UE
L’implementazione del codice di buone pratiche per l’AI mira a rafforzare l’autonomia strategica dell’Unione Europea. Questo obiettivo si realizza attraverso la definizione di standard condivisi che oltre a promuovere la coesione interna tra gli Stati membri, si pongono anche come modello per la regolamentazione globale. In questo modo, l’UE aspira a esercitare un ruolo guida nella governance dell’Intelligenza Artificiale, influenzando le normative internazionali e creando un quadro di riferimento che possa essere adottato oltre i confini europei.