L’Agenzia per l’Italia Digitale (AgID) ha recentemente pubblicato le Linee Guida per l’adozione e lo sviluppo di sistemi di intelligenza artificiale nella PA, con l’obiettivo di supportare le amministrazioni pubbliche nel processo di digitalizzazione.
Queste linee guida, redatte in base all’articolo 71 del Codice dell’Amministrazione Digitale (CAD), promuovono l’uso dell’IA per automatizzare attività ripetitive, migliorare le capacità predittive nei processi decisionali e personalizzare i servizi pubblici, rendendoli più tempestivi ed efficaci.
Inoltre, l’adozione dell’IA stimola l’innovazione dei servizi e dei processi amministrativi, mantenendo sempre alta l’attenzione sulla conformità normativa e sulla protezione dei dati personali.
L’obiettivo è rendere la PA più efficiente e trasparente, creando un ecosistema che favorisca l’innovazione in modo uniforme in tutte le amministrazioni. Un’opportunità senza precedenti per migliorare l’efficienza e l’efficacia dei servizi pubblici, ma comporta anche sfide significative, soprattutto in termini di etica, sicurezza e gestione dei dati.
Linee guida per l’adozione dell’IA nella PA: la struttura
Il documento, che si compone di 119 pagine, è ricco di dettagli, esempi pratici, eccezioni e approfondimenti, e si completa con 9 allegati che chiariscono le modalità di adozione dell’IA nella PA.
Le linee guida sono pensate per orientare le PA, sia come fornitori che come utilizzatori di tecnologie IA, fornendo loro le informazioni necessarie per comprendere non solo le normative, ma anche l’impatto organizzativo dell’adozione di queste soluzioni.
Si approfondisce la definizione di IA secondo l’AI Act, che considera l’IA come un sistema capace di prendere decisioni autonome o predittive, elaborando grandi quantità di dati per ottimizzare i processi decisionali.
Le linee guida identificano inoltre le figure chiave nel processo di adozione: i fornitori, che sviluppano la tecnologia, e gli utilizzatori, che adottano e integrano le tecnologie di IA nei propri sistemi con personalizzazioni o fine-tuning dei modelli utilizzando i propri dati al fine di ottimizzare le soluzioni per il contesto operativo specifico.
Infine, viene trattata la classificazione del rischio introdotta dall’AI Act, che definisce le misure necessarie per ridurre i rischi legati all’uso dell’IA, come la discriminazione o gli impatti sui diritti fondamentali, garantendo così la protezione dei dati personali e la piena conformità alle normative.
Il ciclo di vita dell’AI
Le linee guida propongono l’applicazione del ciclo di miglioramento continuo “Plan-Do-Check-Act” (PDCA), un approccio che garantisce una gestione dinamica e monitorata dei sistemi IA.
Le amministrazioni, sia come fornitori (che sviluppano la tecnologia) che come utilizzatori (che implementano le soluzioni), sono responsabili del monitoraggio continuo dei sistemi durante tutto il loro ciclo di vita.
Questo monitoraggio è differenziato in base al livello di rischio associato al sistema, come definito dalla classificazione del rischio (ad esempio, discriminazione o impatti sui diritti fondamentali).
Per i sistemi IA a rischio limitato o minimo, le PA sono tenute a verificare la conformità dei dati utilizzati, assicurandosi che siano trattati in modo conforme alle normative sulla protezione dei dati personali (GDPR) e ai diritti di proprietà intellettuale.
È necessario anche garantire che la documentazione tecnica del sistema sia completa e aggiornata, includendo dettagli su come i risultati siano spiegabili e trasparenti per gli utenti.
Inoltre, le PA devono prevedere indicatori di prestazione (KPI) per monitorare l’efficacia delle soluzioni adottate, e implementare misure per prevenire qualsiasi forma di discriminazione o disuguaglianza.
Nel caso di sistemi IA ad alto rischio, prima dell’adozione, le PA, come deployer, devono condurre una valutazione d’impatto sui diritti fondamentali (FRIA), che analizzi dettagliatamente i potenziali impatti del sistema, come la durata e la frequenza di utilizzo, i soggetti coinvolti e i rischi per la privacy e altri diritti fondamentali.
Tale valutazione deve essere accompagnata da un piano di mitigazione dei rischi, che stabilisca azioni correttive in caso di problemi identificati durante l’utilizzo del sistema.
Inoltre, le PA devono garantire la presenza di una adeguata supervisione umana, in particolare per i sistemi IA ad alto rischio.
Per i fornitori, ciò implica la progettazione di interfacce che permettano una facile supervisione e intervento umano quando necessario. Per gli utilizzatori, significa adottare strumenti di monitoraggio continuo per valutare le decisioni generate dai sistemi IA e la possibilità di correggere eventuali anomalie o risultati non conformi.
Infine, quando le PA acquistano soluzioni IA da fornitori esterni, devono accertarsi che i fornitori adottino un sistema di gestione dei rischi conforme all’AI Act, e che la gestione dei dati rispetti gli standard di sicurezza, protezione dei dati personali e trasparenza richiesti.
La documentazione tecnica deve essere completa e la registrazione degli eventi rilevanti deve essere trasparente e facilmente accessibile. Questo processo di auditing assicura che i sistemi IA siano implementati e gestiti in modo sicuro, etico e conforme alle normative vigenti.
Come usare l’IA nella PA: gli esempi
L’Agid fa anche alcuni esempi che permettono di capire le ricadute sul cittadino e lo Stato in generale.
Vantaggi per la PA
Primo punto indicato: “miglioramento dell’efficienza operativa: le PA possono utilizzare l’IA per aumentare la propria capacità di analisi e gestione dei dati e di automatizzazione dei processi ripetitivi, al fine di semplificare i processi interni, ridurre i tempi operativi e migliorare l’efficienza complessiva”. “In particolare, le aree in cui si individuano i maggiori benefici sono il supporto alle decisioni – le PA impiegano l’IA per sviluppare modelli predittivi che consentano di adottare decisioni consapevoli e basate sui dati reali, aumentando l’affidabilità e la tempestività delle decisioni”.
“Ottimizzazione dell’allocazione delle risorse: le PA utilizzano l’IA per distribuire le risorse in modo più efficiente, individuando le priorità e focalizzandosi sulle aree di maggiore necessità, ottimizzando così l’uso delle risorse pubbliche”.
“Miglioramento della gestione documentale: le PA utilizzano l’IA per automatizzare la classificazione, l’archiviazione e il recupero dei documenti, facilitando la ricerca e riducendo i tempi di gestione”. L’Agenzia delle Entrate e l’Inps hanno già adottato un sistema Ia a questo scopo.
Ma anche: “miglioramento del supporto giuridico: l’IA supporta le PA nell’analisi normativa e giurisprudenziale, consentendo di elaborare pareri legali più accurati e tempestivi e di monitorare aggiornamenti legislativi rilevanti”.
“Miglioramento delle procedure di acquisto: le PA adottano l’IA per ottimizzare le procedure di procurement, migliorando sia l’efficienza che la trasparenza del processo di acquisto”.
Vantaggi per cittadini e imprese
Si arriva anche a parlare di “miglioramento dei servizi ai cittadini e alle imprese: le PA possono utilizzare l’IA per aumentare la propria capacità di analisi e gestione dei dati al fine di personalizzare i servizi digitali in base alle specifiche esigenze degli utenti, anche in logica proattiva”. Qui tra i vantaggi c’è la personalizzazione: “le PA impiegano l’IA per adattare i servizi pubblici alle esigenze specifiche di cittadini e imprese, migliorando l’interazione digitale e l’efficienza nella risposta”. C’è anche la “proattività: l’IA consente alle PA di anticipare le esigenze degli utenti, fornendo servizi o informazioni pertinenti prima che siano richiesti, semplificando così l’accesso e riducendo i tempi di attesa”.
Infine, “la trasparenza: le PA utilizzano l’IA per migliorare la trasparenza, fornire a cittadini e imprese informazioni chiare e immediatamente fruibili sui propri adempimenti e sullo stato di avanzamento dei procedimenti amministrativi avviati presso la PA stessa”.
Natura dei dati
La gestione dei dati è, poi, un aspetto centrale nell’adozione dell’IA, in quanto la qualità e la sicurezza dei dati influenzano direttamente l’affidabilità dei sistemi.
Le PA devono seguire le linee guida europee per garantire l’accesso, la protezione e il riutilizzo dei dati pubblici, favorendo la creazione di licenze uniformi per la condivisione dei dataset. È fondamentale che i dati siano trattati in modo tale da essere utilizzabili per l’addestramento di modelli IA e che siano garantiti standard elevati di sicurezza e trasparenza, in linea con il GDPR, per proteggere i diritti dei cittadini e prevenire rischi legati a decisioni automatizzate.
Nel contesto dell’IA nelle PA, i dati giocano un ruolo centrale nell’efficacia dei sistemi IA. L’AI Act stabilisce delle distinzioni tra i vari tipi di dati utilizzati nel processo di sviluppo e implementazione dei modelli IA. I dati di addestramento sono quelli impiegati per “insegnare” al sistema IA come ottimizzare i propri parametri, mentre i dati di convalida vengono usati per affinare il modello, prevenendo problemi come l’overfitting o l’underfitting.
Infine, i dati di prova sono essenziali per valutare le performance del sistema prima che venga lanciato ufficialmente.
I dati possono provenire da fonti interne o esterne alla PA. I dati interni sono quelli generati direttamente dalle amministrazioni durante le loro attività operative, ma possono anche derivare da collaborazioni con altre entità.
D’altro canto, i dati esterni, come quelli ottenuti tramite open data o da piattaforme di social media, sono fondamentali per arricchire i sistemi IA con informazioni diverse. A seconda della loro struttura, i dati possono essere strutturati, facilmente trattabili grazie alla loro organizzazione, non strutturati (come immagini e video) che richiedono tecniche avanzate di elaborazione, o semi-strutturati (come XML e JSON), che offrono una certa flessibilità nella loro analisi.
Un altro aspetto importante riguarda l’utilizzo di dati storici e dati sintetici. I dati storici sono cruciali per i modelli predittivi di machine learning, ma il loro utilizzo può essere problematico se incompleti o distorti.
In alternativa, i dati sintetici, creati artificialmente, rappresentano una risorsa valida quando è difficile ottenere dati reali, come nel caso di problematiche relative alla privacy. Inoltre, la creazione di spazi comuni di dati, promossi dalla Strategia europea per i dati, sta contribuendo a rendere possibile una gestione condivisa e sicura delle informazioni all’interno delle PA.
Settori come la sanità, la mobilità e l’energia, oltre alla pubblica amministrazione, sono al centro di questo processo, con l’obiettivo di favorire l’innovazione senza compromettere la protezione dei dati.
Sicurezza cibernetica
La sicurezza cibernetica è un elemento fondamentale per l’adozione e lo sviluppo dell’intelligenza artificiale (IA) nella PA. Sebbene l’IA offra soluzioni per migliorare l’efficienza dei servizi pubblici, essa introduce anche nuovi rischi e vulnerabilità che devono essere considerati attentamente.
La sicurezza di un sistema di IA implica un insieme di strumenti e strategie finalizzati a proteggere i dati e i modelli da attacchi che possano comprometterne la riservatezza e l’integrità. In particolare, i sistemi di IA sono soggetti a rischi peculiari, legati sia agli aspetti sociali che tecnici.
La tassonomia di attacco sviluppata dal NIST distingue diverse categorie di minacce ai sistemi di IA: evasion attacks, poisoning attacks, privacy attacks e abuse attacks. Le prime tre categorie riguardano sia i modelli predittivi che quelli generativi, mentre l’ultima si applica solo ai modelli generativi.
Conoscere e comprendere queste tipologie di attacchi permette di adottare misure preventive più mirate ed efficaci, garantendo così una protezione adeguata dei sistemi.
Gli attacchi alla sicurezza cibernetica nei sistemi di IA possono essere suddivisi in diverse categorie, ciascuna con obiettivi e metodologie distinti.
Gli evasion attacks, ad esempio, mirano a ingannare il modello di IA introducendo perturbazioni impercettibili nei dati di input, noti come esempi avversari, alterando la classificazione e riducendo l’accuratezza del sistema. Ad esempio, è stato mostrato come sia possibile attraverso questa categoria di attacchi indurre in errore un modello addestrato nel riconoscere la segnaletica stradale, come i segnali di stop, apponendovi dei piccoli adesivi.
La mitigazione include la rilevazione di aggiornamenti malevoli o la sanitizzazione dei modelli tramite ispezioni.
I privacy attacks, invece, sono volti a compromettere la privacy degli utenti ricostruendo informazioni personali dai dati di addestramento, attraverso tecniche come la ricostruzione dei dati o l’inferenza dell’appartenenza.
Tecniche come la privacy differenziale, che manipola i dati per limitare l’inferenza da parte degli attaccanti, possono ridurre questi rischi.
Gli abuse attacks cercano di alterare il comportamento di un sistema di IA generativa per scopi fraudolenti o dannosi, come la distribuzione di malware, e possono essere mitigati attraverso l’apprendimento rinforzato con feedback umano o il filtraggio degli input.
Infine, la gestione del rischio cibernetico, essenziale per un utilizzo responsabile dei sistemi di IA, include l’adozione di framework come il Risk Management Framework (AI RMF) del NIST, che fornisce una struttura per identificare, valutare e mitigare i rischi associati all’IA, con particolare attenzione agli impatti sugli individui, le organizzazioni e l’ecosistema.
Le PA devono inoltre proteggere gli asset digitali coinvolti, dai dati ai modelli, implementando controlli per evitare accessi non autorizzati o manomissioni.
La catena di approvvigionamento, che include fornitori di dati e tecnologie esterne, deve essere monitorata e protetta, per evitare vulnerabilità introdotte da fonti esterne.
Un altro obiettivo fondamentale è quello di mantenere il monitoraggio costante delle performance del sistema e degli input, per rilevare tempestivamente anomalie che potrebbero compromettere la sicurezza.
È essenziale che la PA sviluppi anche un piano di risposta agli incidenti, aggiornato periodicamente, per reagire in modo efficace a eventuali minacce emergenti.
La formazione del personale gioca un ruolo di primo piano, poiché è necessario che tutti gli attori coinvolti comprendano le minacce e le misure per mitigarle.
Infine, la sicurezza deve essere integrata lungo tutto il ciclo di vita dell’IA, dalla definizione degli obiettivi iniziali fino alla manutenzione post-implementazione, garantendo audit regolari e aggiornamenti delle misure di sicurezza per rispondere all’evoluzione continua delle minacce informatiche.
Solo con un approccio globale e continuo aggiornamento della sicurezza, la PA può sfruttare i benefici dell’IA, tutelando al contempo la protezione dei dati e la privacy dei cittadini.
Governance etica dell’IA
Oltre agli obblighi di conformità all’AI Act e ad altre normative applicabili, le PA possono adottare codici etici e di comportamento in aggiunta alle normative legali. Questi codici sono strumenti volontari che hanno l’obiettivo di integrare e rafforzare le normative esistenti, orientando le PA nell’adozione e nell’utilizzo responsabile dei sistemi IA.
I codici etici possono riguardare, ad esempio:
- Selezione e uso dei sistemi di IA: Aiutare le PA a selezionare i sistemi IA più adeguati, rispettando le normative vigenti.
- Uso dei sistemi IA da parte dei dipendenti: Stabilire regole chiare per l’utilizzo di tali sistemi all’interno dell’amministrazione.
Tuttavia, è fondamentale che tali codici non abbassino il livello di protezione dei diritti fondamentali previsti dalle normative vigenti. La creazione di codici etici deve coinvolgere tutte le parti interessate, comprese le organizzazioni della società civile, università e centri di ricerca, per garantire un approccio inclusivo e trasparente.
Inoltre, i codici etici dovrebbero incentivare l’applicazione di requisiti più severi per i sistemi di IA non ad alto rischio, includendo principi etici e best practice internazionali per garantire un uso affidabile e responsabile dell’IA nella pubblica amministrazione.
Tra le raccomandazioni principali emerge l’importanza di mitigare i rischi potenziali lungo tutto il ciclo di vita dei sistemi IA, garantendo che tali tecnologie siano al servizio dell’uomo, in una dimensione che valorizzi l’autonomia e la dignità individuale.
I codici etici per l’IA nelle PA dovrebbero guidare la condotta degli attori coinvolti nello sviluppo di tali sistemi, promuovendo competenze professionali, educazione continua e una crescente consapevolezza pubblica, nonché un uso dell’IA che favorisca il benessere sociale e ambientale.
Inoltre, i codici è opportuno che siano periodicamente rivisti per mantenersi aggiornati rispetto all’evoluzione tecnologica e normativa, e che siano elaborati in consultazione con esperti e rappresentanti della società civile.
Questo approccio è essenziale non solo per garantire il rispetto dei diritti dei cittadini, ma anche per rispondere agli obiettivi di sostenibilità previsti dal Green Deal europeo.
Il rispetto del GDPR
L’adozione di sistemi IA nella PA impone il rispetto del GDPR, in particolare i principi stabiliti nell’articolo 5. Il trattamento dei dati deve essere lecito, trasparente e finalizzato a scopi legittimi, espliciti e determinati.
I dati devono essere pertinenti e limitati a ciò che è necessario, accurati e aggiornati, con misure adeguate per garantire sicurezza e riservatezza. Si sottolinea l’obbligo di informazione verso gli interessati andando forse oltre a quanto stabilito dall’IA ACT includendo non solo l’impiego dell’IA ma anche le finalità, i criteri e i metodi utilizzati dai sistemi di IA.
La valutazione d’impatto sulla protezione dei dati personali (DPIA) è necessaria e fornire una descrizione delle misure tecniche e organizzative per proteggere i dati fin dalla progettazione e per impostazione predefinita.
È inoltre fondamentale che le decisioni automatizzate siano trasparenti e comprensibili, con la possibilità di un intervento umano nelle scelte critiche (“human in the loop”). I sistemi IA devono ridurre al minimo i rischi di discriminazione algoritmica, proteggendo gli individui da errori derivanti da dati imprecisi.
Le PA devono essere consapevoli del loro ruolo di titolare del trattamento e garantire che, anche in caso di outsourcing o collaborazione con terzi, i dati siano trattati in conformità con la normativa.
Una valutazione attenta dei rischi e misure correttive sono essenziali per evitare trattamenti illeciti e proteggere i diritti degli individui.
Inoltre, l’adozione dell’IA nella PA richiede una formazione continua dei dipendenti pubblici, non solo tecnici, per garantire una comprensione completa degli aspetti etici, legali e operativi.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link