Obbligo in capo ai fornitori ed agli utilizzatori di sistemi di IA di garantire un livello sufficiente di alfabetizzazione dei propri dipendenti e di coloro che utilizzano i sistemi per loro conto.
Premessa
Il tema dell’alfabetizzazione da erogare nei confronti dei soggetti che a vario titolo utilizzano strumenti di Intelligenza Artificiale (IA) è stato preso in seria considerazione dal legislatore comunitario, il quale ha stabilito che:
- al fine di ottenere i massimi benefici dai sistemi di IA proteggendo nel contempo i diritti fondamentali, la salute e la sicurezza e di consentire il controllo democratico, l’alfabetizzazione in materia di IA dovrebbe dotare i fornitori[1], i deployer[2] e le persone interessate delle nozioni necessarie per prendere decisioni informate in merito ai sistemi di IA.
- Tali nozioni possono variare in relazione al contesto pertinente e possono includere:
- la comprensione della corretta applicazione degli elementi tecnici durante la fase di sviluppo del sistema di IA,
- le misure da applicare durante il suo utilizzo,
- le modalità adeguate per interpretare l’output del sistema di IA e,
- nel caso delle persone interessate, le conoscenze necessarie per comprendere in che modo le decisioni adottate con l’assistenza dell’IA incideranno su di esse.
Nel contesto dell’applicazione del regolamento AI, l’alfabetizzazione in materia di IA dovrebbe fornire a tutti i pertinenti attori della catena del valore dell’IA le conoscenze necessarie per garantire l’adeguata conformità e la sua corretta esecuzione.
Inoltre, l’ampia attuazione delle misure di alfabetizzazione in materia di IA e l’introduzione di adeguate azioni di follow-up potrebbero contribuire a migliorare le condizioni di lavoro e, in ultima analisi, sostenere il consolidamento e il percorso di innovazione di un’IA affidabile nell’Unione.
Il consiglio europeo per l’intelligenza artificiale («consiglio per l’IA») è chiamato a sostenere la Commissione al fine di promuovere gli strumenti di alfabetizzazione in materia di IA, la sensibilizzazione del pubblico e la comprensione dei benefici, dei rischi, delle garanzie, dei diritti e degli obblighi in relazione all’uso dei sistemi di IA. In cooperazione con i pertinenti portatori di interessi, la Commissione e gli Stati membri dovrebbero agevolare l’elaborazione di codici di condotta volontari per migliorare l’alfabetizzazione in materia di IA tra le persone che si occupano di sviluppo, funzionamento e uso dell’IA.
Di alfabetizzazione mediatica il legislatore comunitario[3] parla anche in riferimento al mondo dell’istruzione, affermando che:
la diffusione dei sistemi di IA nell’istruzione è importante per promuovere un’istruzione e una formazione digitali di alta qualità e per consentire a tutti i discenti e gli insegnanti di acquisire e condividere le competenze e le abilità digitali necessarie, compresa l’alfabetizzazione mediatica, e il pensiero critico, per partecipare attivamente all’economia, alla società e ai processi democratici.
La richiesta di alfabetizzazione viene ribadita dal legislatore anche nell’ottica di riuscire a coniugare i rischi e le opportunità offerte dai sistemi di IA.
In considerazione della natura dei sistemi di IA e dei possibili rischi per la sicurezza e i diritti fondamentali associati al loro utilizzo, anche per quanto riguarda la necessità di garantire un adeguato monitoraggio delle prestazioni di un sistema di IA in un contesto reale, è opportuno stabilire responsabilità specifiche per i deployer. È in particolare opportuno che i deployer adottino misure tecniche e organizzative adeguate per garantire di utilizzare i sistemi di IA ad alto rischio conformemente alle istruzioni per l’uso e che siano previsti alcuni altri obblighi in materia di monitoraggio del funzionamento dei sistemi di IA e conservazione delle registrazioni, a seconda dei casi. Inoltre, i deployer dovrebbero garantire che le persone alle quali è affidata l’attuazione delle istruzioni per l’uso e della sorveglianza umana di cui al presente regolamento dispongano delle competenze necessarie, in particolare un livello adeguato di alfabetizzazione, formazione e autorità in materia di IA per svolgere adeguatamente tali compiti
Anche nel caso di sistemi di intelligenza artificiale non ad alto rischio, il legislatore comunitario riconosce all’alfabetizzazione digitale un suo preciso ruolo.
I fornitori di sistemi di IA non ad alto rischio dovrebbero essere incoraggiati a creare codici di condotta, che includano meccanismi di governance connessi, volti a promuovere l’applicazione volontaria di alcuni o tutti i requisiti obbligatori applicabili ai sistemi di IA ad alto rischio, adattati in funzione della finalità prevista dei sistemi e del minor rischio connesso e tenendo conto delle soluzioni tecniche disponibili e delle migliori pratiche del settore, come modelli e schede dati. I fornitori e, se del caso, i deployer di tutti i sistemi di IA, ad alto rischio o meno, e modelli di IA dovrebbero inoltre essere incoraggiati ad applicare su base volontaria requisiti supplementari relativi, ad esempio, agli elementi degli orientamenti etici dell’Unione per un’IA affidabile, alla sostenibilità ambientale, alle misure di alfabetizzazione in materia di IA, alla progettazione e allo sviluppo inclusivi e diversificati dei sistemi di IA, anche prestando attenzione alle persone vulnerabili e all’accessibilità per le persone con disabilità, la partecipazione dei portatori di interessi, con il coinvolgimento, se del caso, dei portatori di interessi pertinenti quali le organizzazioni imprenditoriali e della società civile, il mondo accademico, le organizzazioni di ricerca, i sindacati e le organizzazioni per la tutela dei consumatori nella progettazione e nello sviluppo dei sistemi di IA, e alla diversità dei gruppi di sviluppo, compreso l’equilibrio di genere.
L’espressione «alfabetizzazione in materia di IA», utilizzata dal legislatore comunitario sta ad intendere: le competenze, le conoscenze e la comprensione che consentono ai fornitori, ai deployer e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del presente regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell’IA e ai possibili danni che essa può causare.
L’articolo 4 dell’AI Act[4] richiede ai fornitori e agli utilizzatori di sistemi di IA di garantire un livello sufficiente di alfabetizzazione in materia di IA al proprio personale e a chiunque utilizzi i sistemi per loro conto.
Per quanto di stretto interesse in questa sede, l’articolo 66, nel declinare i compiti del consiglio per l’IA, stabilisce che esso fornisce consulenza e assistenza alla Commissione e agli Stati membri al fine di agevolare l’applicazione coerente ed efficace del presente regolamento. A tal fine il consiglio per l’IA può in particolare:
f) sostenere la Commissione nella promozione dell’alfabetizzazione in materia di IA, della sensibilizzazione del pubblico e della comprensione dei benefici, dei rischi, delle garanzie e dei diritti e degli obblighi in relazione all’uso dei sistemi di IA. A proposito dei Codici di condotta, l’articolo 95 “Codici di condotta per l’applicazione volontaria di requisiti specifici”,stabilisce che: L’ufficio per l’IA e gli Stati membri incoraggiano e agevolano l’elaborazione di codici di condotta, compresi i relativi meccanismi di governance, intesi a promuovere l’applicazione volontaria ai sistemi di IA, diversi dai sistemi di IA ad alto rischio, di alcuni o di tutti i requisiti di cui al capo III, sezione 2, tenendo conto delle soluzioni tecniche disponibili e delle migliori pratiche del settore che consentono l’applicazione di tali requisiti. L’ufficio per l’IA e gli Stati membri agevolano l’elaborazione di codici di condotta relativi all’applicazione volontaria, anche da parte dei deployer, di requisiti specifici a tutti i sistemi di IA, sulla base di obiettivi chiari e indicatori chiave di prestazione volti a misurare il conseguimento di tali obiettivi, compresi elementi quali, a titolo puramente esemplificativo: (omissis) c) la promozione dell’alfabetizzazione in materia di IA, in particolare quella delle persone che si occupano dello sviluppo, del funzionamento e dell’uso dell’IA.
Cosa ha realizzato l’Ufficio per l’intelligenza artificiale.
L’ufficio AI dell’UE ha raccolto alcune delle pratiche in corso tra i firmatari del patto AI allo scopo di creare un archivio vivente per fornire esempi di pratiche di alfabetizzazione in materia di IA in corso.
Sebbene la replica delle pratiche raccolte in questo archivio vivente non garantisca automaticamente la presunzione di conformità all’articolo 4, l’archivio mira a incoraggiare l’apprendimento e lo scambio tra i fornitori e gli utilizzatori di sistemi di IA. Pubblicando le pratiche, la Commissione non implica in alcun modo né l’approvazione né la valutazione.
Il repository[5] fa parte di uno sforzo più ampio dell’Ufficio AI dell’UE per supportare l’implementazione dell’articolo 4 dell’AI Act.
Il caso Generali assicurazioni
Stato: Implementazione completa
Gruppo target: Personale dell’organizzazione
La pratica è progettata per tutti i dipendenti del Gruppo Generali come parte di un programma globale di aggiornamento e riqualificazione digitale lanciato nel 2019. È composta da due componenti principali:
1. una piattaforma globale per l’e-learning sincrono/asincrono (WeLearn), che offre un ampio portafoglio di sessioni di formazione organizzate in base alla complessità tecnica del contenuto e al livello di coinvolgimento dei dipendenti nell’uso o nello sviluppo di sistemi di intelligenza artificiale;
2. una serie di accademie interne (New Roles Schools) per ruoli specifici come Data Scientist, AI Business Translator, Smart Automation Experts, Attuari, Contabili ed Esperti CRM.
In che modo la pratica tiene conto delle conoscenze tecniche, dell’esperienza, dell’istruzione e della
formazione del gruppo target?
La pratica include un portafoglio di corsi di base per tutti i dipendenti, volti a fornire un insieme comune di competenze e conoscenze per comprendere cos’è l’intelligenza artificiale, come viene utilizzata in Generali e i suoi potenziali impatti nel prossimo futuro.
I dipendenti che utilizzano o interagiscono direttamente con i sistemi di intelligenza artificiale possono accedere a corsi intermedi che offrono ulteriori approfondimenti tecnici su concetti di base presentati in precedenza e/o introducono nuovi argomenti su tecnologie e metodologie specifiche di intelligenza artificiale. Questi corsi intermedi sono pensati per fornire le competenze e le conoscenze necessarie per comprendere come funzionano i sistemi di intelligenza artificiale di Generali e come utilizzarli in modo responsabile.
I dipendenti coinvolti nello sviluppo e/o nella manutenzione dei sistemi di intelligenza artificiale hanno accesso a una serie di risorse di formazione avanzate, come lezioni con esperti e formatori esterni, per garantire lo sviluppo corretto e responsabile dei sistemi di intelligenza artificiale. L’accesso alla formazione intermedia e avanzata è subordinato a valutazioni specifiche per garantire l’allineamento tra il contenuto fornito e il livello di preparazione dei dipendenti. Inoltre, sono state istituite accademie interne (New Roles Schools) in collaborazione con università e centri di ricerca esterni per creare nuovi ruoli correlati all’IA (ad esempio, Data Scientist, AI Business Translator, Smart Automation Experts) o per fornire nuove competenze specifiche in materia di IA a ruoli esistenti (ad esempio, attuari, contabili).
In che modo la pratica tiene conto del contesto in cui il/i sistema/i di IA viene/vengono utilizzato/i? Tutte le sessioni di formazione a tutti i livelli sono incentrate su esempi del settore assicurativo e, ove possibile, includono casi reali di sistemi e applicazioni di IA sviluppati e/o utilizzati all’interno del Gruppo.
Qual è stato finora l’impatto della pratica e in che modo l’organizzazione monitora tale impatto?
Il programma ha contribuito al percorso di trasformazione del Gruppo supportandone la trasformazione digitale, migliorando le competenze dei dipendenti e promuovendo l’innovazione. Alcuni KPI includono:
• oltre 5.200 dipendenti Generali hanno avuto l’opportunità di ricoprire posizioni correlate alle discipline STEM (scienza, tecnologia, ingegneria e matematica) e hanno utilizzato le loro competenze STEM nelle responsabilità quotidiane;
• circa il 40% dei partecipanti ha visto un’evoluzione nel proprio ruolo dopo aver completato i programmi di formazione;
• e oltre 18 nuovi servizi di mercato sono stati lanciati grazie alle competenze acquisite tramite il programma.
Da un punto di vista qualitativo, il programma ha contribuito a creare una cultura aziendale basata sull’apprendimento continuo, in cui i dipendenti si sentono titolari del loro percorso di aggiornamento. Ha inoltre facilitato le collaborazioni con università e centri di ricerca esterni, migliorando la conoscenza e l’innovazione nell’apprendimento automatico, nella scienza dei dati e nell’intelligenza artificiale.
L’impatto di questo programma di alfabetizzazione è costantemente monitorato tramite diversi KPI, come il numero di dipendenti che partecipano ai corsi di formazione offerti; la percentuale di corsi completati con successo dai partecipanti; l’impatto sulle competenze, che misura l’aumento di competenze specifiche dei dipendenti dopo aver completato i corsi; la soddisfazione dei partecipanti, espressa tramite valutazioni e feedback sulla qualità e l’utilità dei corsi; e la percentuale di partecipanti che hanno visto un’evoluzione nel loro ruolo dopo aver completato i programmi di formazione.
Quali sfide ha affrontato la pratica e quali problemi sta ancora affrontando l’organizzazione?
Lo sviluppo di questa pratica ha contribuito ad affrontare la sfida della mancanza di competenze di intelligenza artificiale nel mercato del lavoro. Ha offerto una grande opportunità di riqualificare le persone, creando nuovi ruoli da risorse interne che avevano già una conoscenza approfondita dell’azienda.
L’alfabetizzazione AI ha inoltre supportato la digitalizzazione del Gruppo promuovendo la familiarità e la fiducia nei sistemi AI, accelerando così l’adozione delle più recenti tecnologie AI, come l’AI generativa.
Il continuo sviluppo di tecnologie, applicazioni e ruoli AI rappresenta una sfida nel direzionare correttamente gli sforzi per mantenere questa pratica sempre aggiornata.
L’organizzazione sta pianificando di cambiare e/o migliorare la pratica?
La pratica è soggetta a revisione annuale, affrontando sia nuovi argomenti (ad esempio, la formazione di base sull’intelligenza artificiale generativa o la New Role School for Accountants, entrambe aggiunte nel 2024) sia ulteriori approfondimenti su argomenti già trattati (formazione intermedia/avanzata). Il processo di aggiornamento prevede un’identificazione top-down delle macro tendenze e un report bottom-up dalle linee di business sulle loro esigenze specifiche.
[1] «fornitore»: una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che sviluppa un sistema di IA o un modello di IA per finalità generali o che fa sviluppare un sistema di IA o un modello di IA per finalità generali e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio, a titolo oneroso o gratuito;
[2] «deployer»: una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale
[3] Il termine “alfabetizzazione” compare almeno 13 volte nel regolamento sulla IA
[4] REGOLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale)
Articolo 4 Alfabetizzazione in materia di IA
I fornitori e i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell’utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati.
[5] Link: https://digital-strategy.ec.europa.eu/en/library/living-repository-foster-learning-and-exchange-ai-literacy