l’art. 4 dell’ai-act e l’obbligo di alfabetizzazione all’intelligenza artificiale

premessa

Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di intelligenza artificiale (sistemi di IA) nell’Unione, in conformità dei valori dell’Unione, promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea («Carta»), compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, proteggere contro gli effetti nocivi dei sistemi di IA nell’Unione, nonché promuovere l’innovazione. Il presente regolamento garantisce la libera circolazione transfrontaliera di beni e servizi basati sull’IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all’uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento

il valore della formazione nell’utilizzo dei sistemi di IA

A mente del Considerando (4), l’IA consiste in una famiglia di tecnologie in rapida evoluzione che contribuisce al conseguimento di un’ampia gamma di benefici a livello economico, ambientale e sociale nell’intero spettro delle attività industriali e sociali. L’uso dell’IA, garantendo un miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale e ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi

Il Considerando (56) del Regolamento sull’IA stabilisce che:

La diffusione dei sistemi di IA nell’istruzione è importante per promuovere un’istruzione e una formazione digitali di alta qualità e per consentire a tutti i discenti e gli insegnanti di acquisire e condividere le competenze e le abilità digitali necessarie, compresa l’alfabetizzazione mediatica, e il pensiero critico, per partecipare attivamente all’economia, alla società e ai processi democratici. Tuttavia, i sistemi di IA utilizzati nell’istruzione o nella formazione professionale, in particolare per determinare l’accesso o l’ammissione, per assegnare persone agli istituti o ai programmi di istruzione e formazione professionale a tutti i livelli, per valutare i risultati dell’apprendimento delle persone, per valutare il livello di istruzione adeguato per una persona e influenzare materialmente il livello di istruzione e formazione che le persone riceveranno o a cui potranno avere accesso o per monitorare e rilevare comportamenti vietati degli studenti durante le prove, dovrebbero essere classificati come sistemi di IA ad alto rischio, in quanto possono determinare il percorso d’istruzione e professionale della vita di una persona e quindi può incidere sulla sua capacità di garantire il proprio sostentamento. Se progettati e utilizzati in modo inadeguato, tali sistemi possono essere particolarmente intrusivi e violare il diritto all’istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale.

In merito ai sistemi di IA catalogati come ad alto rischio, il Considerando (65) stabilisce che:

L’individuazione e l’attuazione di misure di attenuazione dei rischi per un uso improprio prevedibile a norma del presente regolamento non dovrebbero richiedere, da parte del fornitore per farvi fronte, specifiche formazioni aggiuntive per il sistema di IA ad alto rischio. I fornitori sono tuttavia incoraggiati a prendere in considerazione tali misure di formazione aggiuntive per attenuare gli usi impropri ragionevolmente prevedibili, ove necessario e opportuno.

Sempre per i sistemi di IA ad alto rischio è stabilito dal Considerando (73) che i soggetti cui è affidata la sorveglianza umana siano debitamente formati:

sistemi di IA ad alto rischio dovrebbero essere progettati e sviluppati in modo da consentire alle persone fisiche di sorvegliarne il funzionamento, garantire che siano utilizzati come previsto e che i loro impatti siano affrontati durante il ciclo di vita del sistema. Il fornitore del sistema dovrebbe a tal fine individuare misure di sorveglianza umana adeguate prima dell’immissione del sistema sul mercato o della sua messa in servizio. Tali misure dovrebbero in particolare garantire, ove opportuno, che il sistema sia soggetto a vincoli operativi intrinseci che il sistema stesso non può annullare e che risponda all’operatore umano, e che le persone fisiche alle quali è stata affidata la sorveglianza umana dispongano delle competenze, della formazione e dell’autorità necessarie per svolgere tale ruolo.

Alla luce del Considerando (91) anche i deployer devono rispettare l’obbligo di formazione,infatti: Inoltre, i deployer dovrebbero garantire che le persone alle quali è affidata l’attuazione delle istruzioni per l’uso e della sorveglianza umana di cui al presente regolamento dispongano delle competenze necessarie, in particolare un livello adeguato di alfabetizzazione, formazione e autorità in materia di IA per svolgere adeguatamente tali compiti.

L’Articolo 4, rubricato “Alfabetizzazione in materia di IA” sansisce il seguente obbligo:

I fornitori e i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell’utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati.

Anche l’art. 9 Articolo 9Sistema di gestione dei rischi contiene il termine formazione due volte:

Nell’individuare le misure di gestione dei rischi più appropriate, occorre garantire quanto segue:

(omissis)

c) la fornitura delle informazioni richieste a norma dell’articolo 13 e, ove opportuno, la formazione dei deployer.

Al fine di eliminare o ridurre i rischi connessi all’uso del sistema di IA ad alto rischio, si tengono debitamente in considerazione le conoscenze tecniche, l’esperienza, l’istruzione e la formazione che ci si può aspettare dal deployer e il contesto presumibile in cui il sistema è destinato ad essere usato.

L’Articolo 14 Sorveglianza umana, stabilisce che: per i sistemi di IA ad alto rischio di cui all’allegato III, punto 1, lettera a), le misure di cui al paragrafo 3 del presente articolo sono tali da garantire che il deployer non compia azioni o adotti decisioni sulla base dell’identificazione risultante dal sistema, a meno che tale identificazione non sia stata verificata e confermata separatamente da almeno due persone fisiche dotate della necessaria competenza, formazione e autorità.

L’Articolo 26 Obblighi dei deployer dei sistemi di IA ad alto rischio, impone ai deployer di sistemi di IA ad alto rischio l’adozione di idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l’uso che accompagnano i sistemi, e l’affidamento della sorveglianza umana a persone fisiche che dispongono della competenza, della formazione e dell’autorità necessarie nonché del sostegno necessario.

L’Articolo 60 Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l’IA stabilisce che i fornitori o potenziali fornitori possono effettuare le prove in condizioni reali solo se sono soddisfatte tutte le condizioni seguenti: le prove in condizioni reali sono efficacemente supervisionate dal fornitore o potenziale fornitore, nonché dai deployer o dai potenziali deployer, tramite persone adeguatamente qualificate nel settore pertinente e dotate delle capacità, della formazione e dell’autorità necessarie per svolgere i loro compiti;

L’Articolo 62 Misure per i fornitori e i deployer, in particolare le PMI, comprese le start-up

1.Gli Stati membri intraprendono le azioni seguenti:

b) organizzare specifiche attività di sensibilizzazione e formazione sull’applicazione del presente regolamento adattate alle esigenze delle PMI, comprese le start-up, dei deployers e, se del caso, delle autorità pubbliche locali;

L’Articolo 66 Compiti del consiglio per l’IA dispone che:

Il consiglio per l’IA fornisce consulenza e assistenza alla Commissione e agli Stati membri al fine di agevolare l’applicazione coerente ed efficace del presente regolamento. A tal fine il consiglio per l’IA può in particolare:

j) assistere le autorità nazionali competenti e la Commissione nello sviluppo delle competenze organizzative e tecniche necessarie per l’attuazione del presente regolamento, anche contribuendo alla valutazione delle esigenze di formazione del personale degli Stati membri coinvolto nell’attuazione del presente regolamento;

GLI OBBLIGHI IN CAPO AALLE AZIENDE ED AGLI ENTI.

Da questa breve carrellata dei Considerandi  e degli articoli che trattano il tema della formazione emerge, a carico dei soggetti che utilizzano a vario titolo sistemi di IA il rispetto di un obbligo formativo che non sarà facile da rispettare sia in termini di costi che per quanto attiene alla sua esecuzione, considerando che sul mercato i soggetti effettivamente in grado di produrre pacchetti formativi – al momento – non sono molti, anche in considerazione del fatto che i formatori dovranno avere competenze giuridiche, informatiche ed etiche.

A livello aziendale le funzioni chiamate in prima battuta ad intervenire sono le seguenti:

la direzione strategica; senza un forte committment da parte di questa i risultati lasceranno a desiderare, la normativa non sarà rispettata e gli obiettivi, sottesi all’utilizzo della IA, non saranno raggiunti;

gli uffici preposti alla formazione; ai quali è richiesto un ripensamento dei pacchetti formativi e la capacità di interloquire con i fornitori su tale materia, al fine di ottenere un prodotto che sia compliance con le prescrizioni del legislatore:

ai sistemi informativi è richiesto uno sforzo volto alla semplificazione e all’uso in sicurezza dei sistemi di IA.

About Author /

Dott. Prof.( a.c.) Davide De Luca - Compliance & Cybersecurity Advisor - LinkedIn

Lascia un commento

Your email address will not be published.

Start typing and press Enter to search