Il requisito di “trasparenza” di un sistema di Intelligenza Artificiale declinato nel Regolamento 2024/1689 AI-ACT
Premessa.
Come noto, lo scopo del regolamento sulla IA[1] è migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, contro gli effetti nocivi dei sistemi di IA nell’Unione, e promuovendo l’innovazione.
A tale proposito, l’AI HLEG[2], gruppo indipendente nominato dalla Commissione, ha redatto nel 2019 gli orientamenti etici per un’IA affidabile. In tali orientamenti l’AI HLEG ha elaborato sette principi etici non vincolanti per l’IA che sono intesi a contribuire a garantire che l’IA sia affidabile ed eticamente valida. Per quanto di stretto interesse in questa sede, uno dei sette principi riguarda la trasparenza[3].
Per ottenere una IA affidabile il requisito della trasparenza, richiesto ai sistemi fi IA, deve includere anche i seguenti concetti:
- Tracciabilità: i set di dati e i processi che determinano la decisione del sistema di IA, compresi quelli di raccolta ed etichettatura dei dati, come pure gli algoritmi utilizzati, devono essere documentati secondo i migliori standard per consentire la tracciabilità e aumentare la trasparenza. Ciò vale anche per le decisioni prese dal sistema di IA, in quanto tale documentazione consente di capire perché un sistema di IA ha preso una decisione errata e, di conseguenza, potrebbe aiutare a prevenire errori futuri. La tracciabilità facilita quindi la verificabilità e la Spiegabilità.
- Spiegabilità: attiene alla capacità di spiegare sia i processi tecnici di un sistema di IA che le relative decisioni umane (ad es. i settori di applicazione di un sistema di IA). Affinché un sistema di IA possa essere tecnicamente spiegabile gli esseri umani devono poter capire e tenere traccia delle decisioni prese dal sistema stesso. Se un sistema di IA influisce considerevolmente sulla vita delle persone, dovrebbe sempre essere possibile richiedere una spiegazione adeguata del processo decisionale del sistema. Dovrebbero inoltre essere disponibili indicazioni sul grado in cui un sistema di IA influenza e e plasma il processo decisionale organizzativo, sulle scelte progettuali del sistema e sulla logica alla base della sua distribuzione.
- Comunicazione: i sistemi di IA non devono presentarsi agli utenti come esseri umani e gli esseri umani hanno il diritto di essere informati del fatto che stanno interagendo con un sistema di IA. Ciò implica che i sistemi di IA debbano essere identificati come tali. Dovrebbero essere comunicate agli operatori del settore dell’IA o agli utenti finali le capacità e le limitazioni del sistema in maniera consona al caso d’uso in questione. Ciò potrebbe comprendere la comunicazione del livello di precisione del sistema di IA e dei suoi limiti.
La presenza del termine “trasparenza” all’interno del regolamento sulla IA.
Con «trasparenza»[4] si intende che i sistemi di IA sono sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e Spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA e informando debitamente i deployer[5] delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti. (Considerando 27)
Per questo motivo stabilisce all’art. 1, par. 1, lett. d), anche, regole di trasparenza armonizzate per determinati sistemi di IA.
Ai deployer, l’articolo 13Trasparenza e fornitura di informazioni ai deployer, stabilisce che i sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai deployer di interpretare l’output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi del fornitore e del deployer di cui alla sezione 3
L’articolo 50Obblighi di trasparenza per i fornitori e i deployers di determinati sistemi di IA, al par. 4 stabilisce una serie di obblighi di trasparenza in capo ai deployer; nello specifico i deployer di un sistema di IA che genera o manipola immagini o contenuti audio o video che costituiscono un «deep fake[6]» rendono noto che il contenuto è stato generato o manipolato artificialmente. Tale obbligo non si applica se l’uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati.
Qualora il contenuto faccia parte di un’analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente paragrafo si limitano all’obbligo di rivelare l’esistenza di tali contenuti generati o manipolati in modo adeguato, senza ostacolare l’esposizione o il godimento dell’opera.
Il legislatore comunitario favorisce l’elaborazione di codici di buone pratiche (art. 56 – Codici di buone pratiche) che dovranno garantire, sotto la supervisione dell’ufficio per l’IA[7] e il Comitato, l’aggiornamento della documentazione tecnica del modello oltre all’aggiornamento delle informazioni e della documentazione per i fornitori di sistemi di IA.
Il tema della trasparenza è preso in considerazione anche dalla Commissione ed, infatti, l’articolo 96Orientamenti della Commissione sull’attuazione del regolamento, recita che dovranno garantire La Commissione elabora orientamenti sull’attuazione pratica del presente regolamento, in particolare per quanto riguarda: d) l’attuazione pratica degli obblighi di trasparenza di cui all’articolo 50
Per i sistemi di intelligenza artificiale per finalità generale, l’art. 112 Valutazione e riesame afferma che la commissione, entro il 28 agosto 2028 e successivamente ogni quattro anni, valuta e riferisce al Parlamento europeo e al Consiglio in merito b) alle modifiche dell’elenco dei sistemi di IA che richiedono ulteriori misure di trasparenza di cui all’art. 50 (si tratta dei sistemi di IA per finalità generale).
Sempre in relazione ai sistemi di IA per finalità generale, al fine di orientare le valutazioni e i riesami l’Ufficio per l’IA si impegna a sviluppare una metodologia obiettiva e partecipativa per la valutazione dei livelli di rischio basata sui criteri definiti negli articoli pertinenti e l’inclusione di nuovi sistemi: l’art. 112, par. 11, lett. c), nell’elenco dei sistemi di IA che richiedono ulteriori misure di trasparenza a norma dell’art. 50.
Al fine di migliorare le condizioni di lavoro mediante piattaforme digitali, il regolamento in commento mira a rafforzare l’efficacia di tali diritti e mezzi di ricorso esistenti definendo requisiti e obblighi specifici, anche per quanto riguarda la trasparenza, la documentazione tecnica e la conservazione delle registrazioni dei sistemi di IA (Considerando 9)
All’interno di un approccio basato sul concetto di rischio, che deve essere definito in modo chiaro, dovendo vietare determinate pratiche di IA inaccettabili, occorre stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché obblighi di trasparenza per determinati sistemi di IA. (Considerando 26)
[1] REGOLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale).
[2] La Commissione europea ha nominato un gruppo di esperti incaricato di fornire consulenza sulla sua strategia di intelligenza artificiale.
[3] Trasparenza: i dati, il sistema e i modelli aziendali di IA dovrebbero essere trasparenti. I meccanismi di tracciabilità possono aiutare a raggiungere questo obiettivo. Inoltre, i sistemi di IA e le loro decisioni dovrebbero essere spiegati in un modo adattato alla parte interessata. Gli esseri umani devono essere consapevoli di interagire con un sistema di IA e devono essere informati delle capacità e dei limiti del sistema.
[4] Nella versione italiana del testo del regolamento sulla IA, il termin e”trasparenza” compare 40 volte.
[5] La nozione di «deployer» di cui al presente regolamento dovrebbe essere interpretata come qualsiasi persona fisica o giuridica, compresi un’autorità pubblica, un’agenzia o altro organismo, che utilizza un sistema di IA sotto la sua autorità, salvo nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale. A seconda del tipo di sistema di IA, l’uso del sistema può interessare persone diverse dal deployer
[6] deep fake»: un’immagine o un contenuto audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona
[7] «ufficio per l’IA»: la funzione della Commissione volta a contribuire all’attuazione, al monitoraggio e alla supervisione dei sistemi di IA e dei modelli di IA per finalità generali, e della governance dell’IA prevista dalla decisione della Commissione del 24 gennaio 2024. I riferimenti all’ufficio per l’IA contenuti nel presente regolamento si intendono fatti alla Commissione