Analisi di un trattamento basato su tecniche di Intelligenza Artificiale.

A fronte di una richiesta di installazione di un sw basato su un sistema di Intelligenza artificiale (di seguito, A.I.) si forniscono una serie di suggerimenti finalizzati a consentire al titolare del trattamento la conduzione di una Privacy Impact Assessment (P.I.A.) con successiva Data Protection Impact Assessment (D.P.I.A.)

Dovendo il titolare del trattamento colmare una serie di debiti informativi propedeutici per l’esecuzione dei due adempimenti riportati al precedente cpv, si riporta di seguito una scheda che, con eventuali modifiche/integrazioni, dovrà essere somministrata alla funzione aziendale che ha fatto la richiesta.

CECK LIST a carico della funzione aziendale richiedente:

Si rilasciano, attraverso la presente Comunicazione, le indicazioni da seguire nello svolgimento di una Valutazione di Impatto (D.P.I.A.) del trattamento di cui all’oggetto; suddette indicazioni sono spendibili per:

  1. tutti i trattamenti di dati personali che avvengono attraverso il ricorso a sistemi di Intelligenza Artificiale;
  2. quota parte, sono utilizzabili per tutti i trattamenti di dati personali soggetti a D.P.I.A.

Tenuto conto che l’attività istruttoria, per quanto di stretta competenza, non può prescindere dallo svolgimento di una valutazione di impatto (DPIA), che è necessaria nel caso in cui il trattamento dei dati personali avviene a mezzo di tecniche di intelligenza artificiale (AI).

Infatti, trattasi di un obbligo formale, necessario quando le attività di trattamento dati personali inerenti una iniziativa, come quella in esame, siano particolarmente “invasive”, con rischi elevati per i diritti e le libertà delle persone fisiche, soprattutto quando si prevede l’uso di nuove tecnologie.

La DPIA: un processo per fasi

La DPIA, quale strumento per il raggiungimento del principio di privacy by design, che richiede che il trattamento dei dati personali deve essere progettato in modo da garantire il rispetto dei diritti e delle libertà dei soggetti interessati (in questo caso parliamo dei pazienti se il contesto è rappresentato da una azienda sanitaria oppure degli utenti qualora il contesto di riferimento sia costituito da un ente/azienda), dovrà rappresentare tutti gli adempimenti realizzati, unitamente alle necessarie evidenze.

Le figure (1 e 2) di seguito pubblicate sintetizzano, visivamente, il ciclo che il processo dovrà seguire:

In una ottica di accountability sarà utile impiegare la seguente tabella (figura 3).

La successiva fig. 4  costituisce un esempio di tabella per rendicontare, in ottica di accountability, le diverse fasi della DPIA – unitamente alla previsione di apposite  Matrici RACI (R = Responsible/Responsabile, A = Accountable/Responsabilità, C = Consulted/consultato, I = Informed/informato.), utili per delineare con precisione i confini di competenze e di responsabilità tra gli attori, interni ed esterni all’organizzazione del titolare del trattamento) chiamati ad intervenire.

La DPIA deve essere quindi gestita come processo e progetto ampio e collaborativo, soprattutto in situazioni complesse come quelle correlate all’uso dell’IA.

Aspetti essenziali che devono essere presenti nelle Valutazioni di impatto per la protezione dati.

Quando è necessaria una certa profondità, la relazione finale della DPIA (di cui è auspicabile realizzare una sintesi, a cura dell’ufficio Privacy, pubblicabile e ben leggibile) – consta quasi sempre di un numero congruo di Allegati, alcuni dei quali anche squisitamente tecnici, richiamati nel ragionamento generale che una buona DPIA deve poter raccontare.

Gli aspetti essenziali che rilevano in particolare nel contesto di trattamenti dati personali basati su tecniche di AI, sono i seguenti.

Liceità, necessità e proporzionalità

Va posta particolare attenzione a questi passaggi iniziali propedeutici alla decisione del titolare del trattamento di avviare o no un trattamento.

Se la mappatura dell’attività di trattamento (che va documentata nel Registro dei trattamenti, ex art. 30 GDPR, prima di iniziare il processo di DPIA) non è stata accurata, è proprio in questo passaggio che va compiuta una revisione che approfondisca in dettaglio gli aspetti tralasciati o non sufficientemente sviscerati. In questa fase si ritiene utile partire dalla vigente normativa di settore: GDPR e normative di contesto; senza tralasciare lo studio dei provvedimenti delle Autorità di Controllo, a partire da quella italiana, e delle pronunce giurisprudenziali, nazionali e comunitarie.

Descrizione funzionale del flusso dei trattamenti di dati

Per questo passaggio, sono di particolare importanza documentazioni chiare, anche stratificate per intelligibilità e comprensione, dello stack tecnologico (con tale espressione ci si riferisce all’insieme di tecnologie, sw, e strumenti che vengono utilizzati per creare e gestire una soluzione digitale, come un’applicazione web o mobile), del ruolo dei diversi attori coinvolti nel trattamento, ecc.

Ad esempio, se la DPIA riguarda una soluzione applicativa che impiega, una soluzione AI, va descritta ogni attività di trattamento in relazione agli steps del Life Cycle dell’AI impiegata, ponendo particolare attenzione, ad esempio, ad evitare che ulteriori dati personali alimentino l’addestramento della stessa. Allo stesso modo, le fasi di Test, Evaluation, Validation e Verification devono rassicurare circa la migliore affidabilità e robustezza dell’AI impiegata, sia nelle elaborazioni di input che negli output.

Comprendere le peculiarità delle valutazioni dei rischi per i diritti e le libertà delle persone fisiche

Quando si valutano i rischi, non va mai dimenticato l’obiettivo.

Non a caso la definizione più universale di rischio è la seguente: effetto dell’incertezza sugli obiettivi.

Comprendere dunque la differenza fra scenario di rischio, origine del rischio, minacce o eventi pericolosi, vulnerabilità, è essenziale per gli steps analitici.

A tal proposito, nella DPIA è fondamentale l’impiego chiaro di criteri e metriche coerenti con la dimensione altruistica della valutazione dei rischi per i diritti e le libertà degli interessati.

A tale proposito si ritiene che il titolare debba compiere un ulteriore sforzo in tale direzione, andando ad esplicitare, formalizzandole, non tanto i criteri che sono sostanzialmente rispettati, quanto le metriche (intese in termini di misurazioni quantitative) che richiedono uno specifico approfondimento.

Le Linee guida del Gruppo di lavoro Articolo 29 WP248rev.1 hanno fornito la seguente definizione di rischio: « Per “rischio” si intende uno scenario descrittivo di un evento e delle relative conseguenze, che sono stimate in termini di gravità e probabilità per i diritti e le libertà ».

Per i trattamenti di dati personali che prevedono il ricorso alla AI si rende necessario prendere in considerazione la dimensione “etica” di come usiamo i dati personali dei soggetti interessati, che nel caso della ASL PE sono in prevalenza dati riferiti a soggetti appartenenti alle c.d. categorie deboli: malati, minori, ecc.

Ecco perché in ogni valutazione dei rischi per la protezione dati oltre agli scenari di rischio “di sicurezza”, da prendere in considerazione per tutte le tipologie di trattamento di dati personali da assoggettare a D.P.I.A., come:

  • perdita o indisponibilità di dati
  • distruzione non autorizzata di dati
  • modifiche indesiderate o non autorizzate ai dati
  • divulgazione non autorizzata di dati personali
  • accesso illegittimo o non autorizzato ai dati;

vanno analizzati scenari di rischio “etici”, ossia rischi come:

  • eccessiva raccolta o uso di dati personali
  • collegamenti o raffronti inappropriati o non autorizzati di dati personali
  • poca trasparenza-chiarezza, non considerazione dei diritti
  • riuso per finalità diverse dei dati personali senza la consapevolezza e/o il consenso degli interessati
  • difettosità di elaborazione o processo
  • conservazione immotivatamente prolungata dei dati personali
  • inesattezza o dequalificazione – mancato aggiornamento dei dati personali
  • re-identificazione dei soggetti interessati
  • sorveglianza ingiustificata o illegittima.

Tutti gli scenari di rischio sopra elencati sono correlati al mancato rispetto dei principi di protezione dati enunciati nel Regolamento UE 2016/679, all’art. 5.[3]

In aggiunta si richiama il Considerando 76 GDPR, a mente del quale, “La probabilità e la gravità del rischio per i diritti e le libertà dell’interessato dovrebbero essere determinate con riguardo:

  1. alla natura,
  2. all’ambito di applicazione,
  3. al contesto
  4. e alle finalità del trattamento.

Il rischio dovrebbe essere considerato in base a una valutazione oggettiva mediante cui si stabilisce se i trattamenti di dati comportano un rischio o un rischio elevato.”.

La complessità degli scenari di rischio per l’AI

Quando si analizza uno scenario di rischio, il titolare del trattamento, per il tramite dell’Ufficio Privacy, dovrà porsi nella condizione di poter rispondere ai seguenti quesiti:

  • Che cosa può accadere?
  • Perché può accadere?
  • Quali sono le conseguenze?
  • Qual è la probabilità che l’evento si verifichi?
  • Quali fattori possono mitigare le conseguenze del rischio?
  • Quali fattori possono ridurne la probabilità?
  • Il livello di rischio è accettabile?
  • Il livello di rischio richiede un ulteriore mitigazione?

Oltre all’impostazione dei valori di probabilità e gravità di impatto, è sempre corretto descrivere, il perché si attribuisce un certo valore. Ciò aiuta, in un’ottica di accountability, a rendere più oggettiva possibile la valutazione.

Nello schema che segue, sono riportate su quattro colonne le seguenti voci: esposizione ad eventi dannosi, fonti di rischio, livello di verosimiglianza e motivazione/giustificazione.

La successiva fig. 5, rappresenta un esempio di “assegnazione delle probabilità” con giustificazione dei valori attribuiti.

In caso di trattamento dati personali basati su tecniche di AI vanno considerati, nella DPIA, altri gruppi di eventi dannosi, in aggiunta a quelli già previsti nell’espletamento di D.P.I.A. “classiche”; a tal fine, possono risultare utili standard come le norme ISO/IEC 42001:2023[4] e la ISO/IEC 23894:2023 (Annex B)[5], o anche l’AI RISK MANAGEMENT FRAMEWORK del NIST[6].

Se ci si attesta al momento, su una generale mancanza di governo delle tecniche, ad esempio, il livello di verosimiglianza è quantomeno probabile, perché non ci sono studi di settore, pubblicazioni o dati statistici sufficienti e ritenere raro o anche solo possibile il potenziale di danno delle tecnologie AI.

Anche per la gravità delle conseguenze, nel determinare i potenziali impatti per le persone (fisico, materiale, immateriale), si stabilisce tipicamente un livello di gravità, ad esempio basso, medio, alto, critico, fornendo le opportune motivazioni.

Per quanto concerne gli scenari di rischio specifici di trattamenti basati su tecniche di AI, in prima battuta,si possono individuare i seguenti:

  • opacità degli algoritmi e dei sistemi
  • esclusività della decisione algoritmica
  • influenza o manipolazione informativa degli interessati
  • disequità o discriminazione algoritmica
  • allucinazione algoritmica
  • output illeciti
  • deepfake
  • raccomandazioni pericolose o violente – disallineamento etico rispetto ai valori umani
  • distorsione cognitiva
  • eccessiva dipendenza dalle tecnologie ai
  • contaminazione dati e prestazioni dei sistemi AI – poisoning (avvelenamento)

Per la determinazione del livello di gravità di impatto, i rischi inerenti, intrinsechi, potenziali, quelli che non considerano ancora le misure di mitigazione attuate, avranno con ogni probabilità livelli piuttosto alti se non critici. Se l’obiettivo dell’analisi del rischio è quello di avere rappresentati i diversi livelli di rischio, è necessario trovare una forma leggibile e comprensibile; si rinvia agli allegati nn. 1, 2 e 3, le cui immagini (sotto forma di Mappa di calore) indicano i diversi livelli di rischio.

Le misure e i controlli per la mitigazione

Le situazioni di rischio elevato prevedono l’attuazione di misure organizzative e tecniche per ridurre il livello di rischio, che devono essere rappresentate con metriche per stabilirne l’efficacia.

Va premesso che stabilire i criteri di efficacia è uno degli aspetti più complicati della mitigazione; esistono diversi modi, che dipendono dalle diverse metodologie utilizzate, ma è la sistematicità e/o il valore scientifico ciò che conta.

L’unica regola condivisibile è la seguente:

l’efficacia di una misura di mitigazione su uno scenario di rischio è direttamente proporzionale al grado di applicazione della misura e all’azione specifica su tale scenario

Una possibile metrica per il grado di applicazione di un controllo, che indica l’adozione di misure, contromisure o salvaguardia di specifiche condizioni, può essere la seguente (fig. 10).

Ai diversi livelli, possiamo attribuire valori numerici, dei punteggi, partendo: dalle singole misure di sicurezza (prima colonna), dalla attribuzione del relativo valore (seconda colonna) e dallo standard preso a riferimento (colonna tre). (fig. 11)

La scelta dei controlli di mitigazione va condotta tenendo conto del rischio specifico che viene preso in esame; ad esempio, la crittografia non ha alcuna azione sul rischio di poca trasparenza, o sul rischio di esclusività della decisione algoritmica, mentre ha sicuramente un peso importante sugli scenari relativi alla sicurezza, come sul rischio di accesso illegittimo o non autorizzato ai dati – oppure sul rischio di contaminazione dati e/o prestazioni del sistema AI, il cosiddetto “poisonising”.

Allo stesso modo, una misura organizzativa, magari ben applicata e verificata, ad esempio la mappatura delle attività di trattamento nel Registro ex art. 30 GDPR, ha azione nulla sugli scenari di sicurezza (avere un buon registro non protegge certo da attacchi cyber o da errori utente, o da altri eventi distruttivi) ma invece, con diversi gradi di azione, da moderato a significativo o importante, può mitigare i rischi di natura più etica, in quanto l’aver analizzato e stabilito le specifiche finalità, basi giuridiche e ambiti mitiga un utilizzo improprio dei dati.

Quindi è la combinazione di queste due grandezze, il punteggio relativo al grado di applicazione, e il coefficiente di azione sui diversi scenari (che vanno ahimè impostati e motivati) che può poi dare il valore di efficacia alla singola misura; nulla vieta di stabilire altri pesi, o caratteristiche (ad esempio, misure preventive o protettive, o miste, che agiscono sulla probabilità dei rischi o sulle gravità di impatto).

Ogni livello di rischio dei diversi scenari può essere abbassato dall’efficacia, con metodi di calcolo anche semplici (che rispettino il principio che il rischio non può essere mai azzerato).

Il lavoro di impostazione di criteri e metriche, dei pesi, dei gradi di applicazione e dell’azione delle misure sui rischi può essere anche particolarmente oneroso, ma se la metodologia è coerente e riutilizzabile, e ci sono spiegazioni che facilitano quanto meno l’intersoggettività (l’oggettività assoluta è un miraggio), costruire modelli di rappresentazione efficaci, e criteri di accettabilità del rischio residuo, nelle fasi finali della DPIA, non è difficile.

L’importante, ovviamente, è che quanto riportato su uno strumento, e sulla relazione della Valutazione di impatto, siano analisi oneste e veritiere, che non siano “distanti” dalla realtà applicativa.

Con l’AI, purtroppo, gestire tali contesti, costruire modelli e metriche per l’azione sugli scenari di rischio, non è banale, nonostante ci sono standard e framework che azzardano indicazioni per farlo. La reale efficacia di tante valutazioni si vedrà soltanto con il tempo.

Si rimette la presente Comunicazione quale strumento di lavoro per l’esecuzione della D.P.I.A., su un sistema sw basato sulla Intelligenza Artificiale.


[1] SATD = è il Soggetto Autorizzato al Trattamento con Delega, alla nomina di altri soggetti autorizzati al trattamento soggetti alla sua responsabilità.

[2] Unità Operativa: ad es. i Sistemi Informativi, la Ingegneria Clinica-HTA, altra U.O. richiedente

[3] Articolo 5 Principi applicabili al trattamento di dati personali

1. I dati personali sono: (C39)

a) trattati in modo lecito, corretto e trasparente nei confronti dell’interessato («liceità, correttezza e trasparenza»);

b) raccolti per finalità determinate, esplicite e legittime, e successivamente trattati in modo che non sia incompatibile con tali finalità; un ulteriore trattamento dei dati personali a fini di archiviazione nel pubblico interesse, di ricerca scientifica o storica o a fini statistici non è, conformemente all’articolo 89, paragrafo 1, considerato incompatibile con le finalità iniziali («limitazione della finalità»);

c) adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per le quali sono trattati («minimizzazione dei dati»);

d) esatti e, se necessario, aggiornati; devono essere adottate tutte le misure ragionevoli per cancellare o rettificare tempestivamente i dati inesatti rispetto alle finalità per le quali sono trattati («esattezza»);

e) conservati in una forma che consenta l’identificazione degli interessati per un arco di tempo non superiore al conseguimento delle finalità per le quali sono trattati; i dati personali possono essere conservati per periodi più lunghi a condizione che siano trattati esclusivamente a fini di archiviazione nel pubblico interesse, di ricerca scientifica o

storica o a fini statistici, conformemente all’articolo 89, paragrafo 1, fatta salva l’attuazione di misure tecniche e organizzative adeguate richieste dal presente regolamento a tutela dei diritti e delle libertà dell’interessato («limitazione della conservazione»);

f ) trattati in maniera da garantire un’adeguata sicurezza dei dati personali, compresa la protezione, mediante misure tecniche e organizzative adeguate, da trattamenti non autorizzati o illeciti e dalla perdita, dalla distruzione o dal danno accidentali («integrità e riservatezza»).

2. Il titolare del trattamento è competente per il rispetto del paragrafo 1 e in grado di comprovarlo («responsabilizzazione»). (C74)

[4] La ISO/IEC 42001 che contiene tutti gli strumenti utili per garantire, nel corso di tutto il “ciclo di vita” di un sistema di IA, sicurezza, tutela, equità, trasparenza, qualità dei dati e qualità dei sistemi. Un altro tassello importante nel quadro regolamentario sull’intelligenza artificiale. La ISO/IEC 42001:2023 rappresenta il primo standard al mondo per i sistemi di gestione dell’intelligenza artificiale e fornisce una guida di grande valore per questo settore in rapida evoluzione, consentendo di affrontare le sfide uniche poste dall’intelligenza artificiale quali, ad esempio, l’etica, la trasparenza e l’apprendimento continuo.

[5] La ISO/IEC 23894:2023 (Annex B), disciplina i seguenti aspetti: Tecnologia dell’informazione — Intelligenza artificiale — Orientamenti sulla gestione del rischio.

[6] Il 26 luglio 2024, il NIST ha pubblicato NIST-AI-600-1, Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile. Sviluppato in parte per soddisfare un ordine esecutivo del 30 ottobre 2023, il profilo può aiutare le organizzazioni a identificare i rischi unici posti dall’intelligenza artificiale generativa e proporre azioni per la gestione del rischio dell’intelligenza artificiale generativa che si allinea meglio ai loro obiettivi e priorità.

About Author /

Dott. Prof.( a.c.) Davide De Luca - Compliance & Cybersecurity Advisor - LinkedIn

Lascia un commento

Your email address will not be published.

Start typing and press Enter to search