IA, come usarla bene nella PA, passo passo: le linee guida AgID

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Prestito condominio

per lavori di ristrutturazione

 


L’Agenzia per l’Italia Digitale (AgID) ha recentemente pubblicato le Linee Guida per l’adozione e lo sviluppo di sistemi di intelligenza artificiale nella PA, con l’obiettivo di supportare le amministrazioni pubbliche nel processo di digitalizzazione.

Queste linee guida, redatte in base all’articolo 71 del Codice dell’Amministrazione Digitale (CAD), promuovono l’uso dell’IA per automatizzare attività ripetitive, migliorare le capacità predittive nei processi decisionali e personalizzare i servizi pubblici, rendendoli più tempestivi ed efficaci.

Inoltre, l’adozione dell’IA stimola l’innovazione dei servizi e dei processi amministrativi, mantenendo sempre alta l’attenzione sulla conformità normativa e sulla protezione dei dati personali.

Finanziamenti e agevolazioni

Agricoltura

 

L’obiettivo è rendere la PA più efficiente e trasparente, creando un ecosistema che favorisca l’innovazione in modo uniforme in tutte le amministrazioni. Un’opportunità senza precedenti per migliorare l’efficienza e l’efficacia dei servizi pubblici, ma comporta anche sfide significative, soprattutto in termini di etica, sicurezza e gestione dei dati.

Linee guida per l’adozione dell’IA nella PA: la struttura

Il documento, che si compone di 119 pagine, è ricco di dettagli, esempi pratici, eccezioni e approfondimenti, e si completa con 9 allegati che chiariscono le modalità di adozione dell’IA nella PA.

Le linee guida sono pensate per orientare le PA, sia come fornitori che come utilizzatori di tecnologie IA, fornendo loro le informazioni necessarie per comprendere non solo le normative, ma anche l’impatto organizzativo dell’adozione di queste soluzioni.

Si approfondisce la definizione di IA secondo l’AI Act, che considera l’IA come un sistema capace di prendere decisioni autonome o predittive, elaborando grandi quantità di dati per ottimizzare i processi decisionali.

Le linee guida identificano inoltre le figure chiave nel processo di adozione: i fornitori, che sviluppano la tecnologia, e gli utilizzatori, che adottano e integrano le tecnologie di IA nei propri sistemi con personalizzazioni o fine-tuning dei modelli utilizzando i propri dati al fine di ottimizzare le soluzioni per il contesto operativo specifico.

Infine, viene trattata la classificazione del rischio introdotta dall’AI Act, che definisce le misure necessarie per ridurre i rischi legati all’uso dell’IA, come la discriminazione o gli impatti sui diritti fondamentali, garantendo così la protezione dei dati personali e la piena conformità alle normative.

Il ciclo di vita dell’AI

Le linee guida propongono l’applicazione del ciclo di miglioramento continuo “Plan-Do-Check-Act” (PDCA), un approccio che garantisce una gestione dinamica e monitorata dei sistemi IA.

Le amministrazioni, sia come fornitori (che sviluppano la tecnologia) che come utilizzatori (che implementano le soluzioni), sono responsabili del monitoraggio continuo dei sistemi durante tutto il loro ciclo di vita.

Richiedi prestito online

Procedura celere

 

Questo monitoraggio è differenziato in base al livello di rischio associato al sistema, come definito dalla classificazione del rischio (ad esempio, discriminazione o impatti sui diritti fondamentali).

Per i sistemi IA a rischio limitato o minimo, le PA sono tenute a verificare la conformità dei dati utilizzati, assicurandosi che siano trattati in modo conforme alle normative sulla protezione dei dati personali (GDPR) e ai diritti di proprietà intellettuale.

È necessario anche garantire che la documentazione tecnica del sistema sia completa e aggiornata, includendo dettagli su come i risultati siano spiegabili e trasparenti per gli utenti.

Inoltre, le PA devono prevedere indicatori di prestazione (KPI) per monitorare l’efficacia delle soluzioni adottate, e implementare misure per prevenire qualsiasi forma di discriminazione o disuguaglianza.

Nel caso di sistemi IA ad alto rischio, prima dell’adozione, le PA, come deployer, devono condurre una valutazione d’impatto sui diritti fondamentali (FRIA), che analizzi dettagliatamente i potenziali impatti del sistema, come la durata e la frequenza di utilizzo, i soggetti coinvolti e i rischi per la privacy e altri diritti fondamentali.

Tale valutazione deve essere accompagnata da un piano di mitigazione dei rischi, che stabilisca azioni correttive in caso di problemi identificati durante l’utilizzo del sistema.

Inoltre, le PA devono garantire la presenza di una adeguata supervisione umana, in particolare per i sistemi IA ad alto rischio.

Finanziamo agevolati

Contributi per le imprese

 

Per i fornitori, ciò implica la progettazione di interfacce che permettano una facile supervisione e intervento umano quando necessario. Per gli utilizzatori, significa adottare strumenti di monitoraggio continuo per valutare le decisioni generate dai sistemi IA e la possibilità di correggere eventuali anomalie o risultati non conformi.

Infine, quando le PA acquistano soluzioni IA da fornitori esterni, devono accertarsi che i fornitori adottino un sistema di gestione dei rischi conforme all’AI Act, e che la gestione dei dati rispetti gli standard di sicurezza, protezione dei dati personali e trasparenza richiesti.

La documentazione tecnica deve essere completa e la registrazione degli eventi rilevanti deve essere trasparente e facilmente accessibile. Questo processo di auditing assicura che i sistemi IA siano implementati e gestiti in modo sicuro, etico e conforme alle normative vigenti.

Natura dei dati

La gestione dei dati è, poi, un aspetto centrale nell’adozione dell’IA, in quanto la qualità e la sicurezza dei dati influenzano direttamente l’affidabilità dei sistemi.

Le PA devono seguire le linee guida europee per garantire l’accesso, la protezione e il riutilizzo dei dati pubblici, favorendo la creazione di licenze uniformi per la condivisione dei dataset. È fondamentale che i dati siano trattati in modo tale da essere utilizzabili per l’addestramento di modelli IA e che siano garantiti standard elevati di sicurezza e trasparenza, in linea con il GDPR, per proteggere i diritti dei cittadini e prevenire rischi legati a decisioni automatizzate.

Prestito personale

Delibera veloce

 

Nel contesto dell’IA nelle PA, i dati giocano un ruolo centrale nell’efficacia dei sistemi IA. L’AI Act stabilisce delle distinzioni tra i vari tipi di dati utilizzati nel processo di sviluppo e implementazione dei modelli IA. I dati di addestramento sono quelli impiegati per “insegnare” al sistema IA come ottimizzare i propri parametri, mentre i dati di convalida vengono usati per affinare il modello, prevenendo problemi come l’overfitting o l’underfitting.

Infine, i dati di prova sono essenziali per valutare le performance del sistema prima che venga lanciato ufficialmente.

I dati possono provenire da fonti interne o esterne alla PA. I dati interni sono quelli generati direttamente dalle amministrazioni durante le loro attività operative, ma possono anche derivare da collaborazioni con altre entità.

D’altro canto, i dati esterni, come quelli ottenuti tramite open data o da piattaforme di social media, sono fondamentali per arricchire i sistemi IA con informazioni diverse. A seconda della loro struttura, i dati possono essere strutturati, facilmente trattabili grazie alla loro organizzazione, non strutturati (come immagini e video) che richiedono tecniche avanzate di elaborazione, o semi-strutturati (come XML e JSON), che offrono una certa flessibilità nella loro analisi.

Un altro aspetto importante riguarda l’utilizzo di dati storici e dati sintetici. I dati storici sono cruciali per i modelli predittivi di machine learning, ma il loro utilizzo può essere problematico se incompleti o distorti.

In alternativa, i dati sintetici, creati artificialmente, rappresentano una risorsa valida quando è difficile ottenere dati reali, come nel caso di problematiche relative alla privacy. Inoltre, la creazione di spazi comuni di dati, promossi dalla Strategia europea per i dati, sta contribuendo a rendere possibile una gestione condivisa e sicura delle informazioni all’interno delle PA.

Settori come la sanità, la mobilità e l’energia, oltre alla pubblica amministrazione, sono al centro di questo processo, con l’obiettivo di favorire l’innovazione senza compromettere la protezione dei dati.

Cessione crediti fiscali

procedure celeri

 

Sicurezza cibernetica

La sicurezza cibernetica è un elemento fondamentale per l’adozione e lo sviluppo dell’intelligenza artificiale (IA) nella PA. Sebbene l’IA offra soluzioni per migliorare l’efficienza dei servizi pubblici, essa introduce anche nuovi rischi e vulnerabilità che devono essere considerati attentamente.

La sicurezza di un sistema di IA implica un insieme di strumenti e strategie finalizzati a proteggere i dati e i modelli da attacchi che possano comprometterne la riservatezza e l’integrità. In particolare, i sistemi di IA sono soggetti a rischi peculiari, legati sia agli aspetti sociali che tecnici.

La tassonomia di attacco sviluppata dal NIST distingue diverse categorie di minacce ai sistemi di IA: evasion attacks, poisoning attacks, privacy attacks e abuse attacks. Le prime tre categorie riguardano sia i modelli predittivi che quelli generativi, mentre l’ultima si applica solo ai modelli generativi.

Conoscere e comprendere queste tipologie di attacchi permette di adottare misure preventive più mirate ed efficaci, garantendo così una protezione adeguata dei sistemi.

Gli attacchi alla sicurezza cibernetica nei sistemi di IA possono essere suddivisi in diverse categorie, ciascuna con obiettivi e metodologie distinti.

Gli evasion attacks, ad esempio, mirano a ingannare il modello di IA introducendo perturbazioni impercettibili nei dati di input, noti come esempi avversari, alterando la classificazione e riducendo l’accuratezza del sistema. Ad esempio, è stato mostrato come sia possibile attraverso questa categoria di attacchi indurre in errore un modello addestrato nel riconoscere la segnaletica stradale, come i segnali di stop, apponendovi dei piccoli adesivi.

La mitigazione include la rilevazione di aggiornamenti malevoli o la sanitizzazione dei modelli tramite ispezioni.

Sconto crediti fiscali

Finanziamenti e contributi

 

I privacy attacks, invece, sono volti a compromettere la privacy degli utenti ricostruendo informazioni personali dai dati di addestramento, attraverso tecniche come la ricostruzione dei dati o l’inferenza dell’appartenenza.

Tecniche come la privacy differenziale, che manipola i dati per limitare l’inferenza da parte degli attaccanti, possono ridurre questi rischi.

Gli abuse attacks cercano di alterare il comportamento di un sistema di IA generativa per scopi fraudolenti o dannosi, come la distribuzione di malware, e possono essere mitigati attraverso l’apprendimento rinforzato con feedback umano o il filtraggio degli input.

Infine, la gestione del rischio cibernetico, essenziale per un utilizzo responsabile dei sistemi di IA, include l’adozione di framework come il Risk Management Framework (AI RMF) del NIST, che fornisce una struttura per identificare, valutare e mitigare i rischi associati all’IA, con particolare attenzione agli impatti sugli individui, le organizzazioni e l’ecosistema.

Le PA devono inoltre proteggere gli asset digitali coinvolti, dai dati ai modelli, implementando controlli per evitare accessi non autorizzati o manomissioni.

La catena di approvvigionamento, che include fornitori di dati e tecnologie esterne, deve essere monitorata e protetta, per evitare vulnerabilità introdotte da fonti esterne.

Un altro obiettivo fondamentale è quello di mantenere il monitoraggio costante delle performance del sistema e degli input, per rilevare tempestivamente anomalie che potrebbero compromettere la sicurezza.

È essenziale che la PA sviluppi anche un piano di risposta agli incidenti, aggiornato periodicamente, per reagire in modo efficace a eventuali minacce emergenti.

La formazione del personale gioca un ruolo di primo piano, poiché è necessario che tutti gli attori coinvolti comprendano le minacce e le misure per mitigarle.

Infine, la sicurezza deve essere integrata lungo tutto il ciclo di vita dell’IA, dalla definizione degli obiettivi iniziali fino alla manutenzione post-implementazione, garantendo audit regolari e aggiornamenti delle misure di sicurezza per rispondere all’evoluzione continua delle minacce informatiche.

Solo con un approccio globale e continuo aggiornamento della sicurezza, la PA può sfruttare i benefici dell’IA, tutelando al contempo la protezione dei dati e la privacy dei cittadini.

Governance etica dell’IA

Oltre agli obblighi di conformità all’AI Act e ad altre normative applicabili, le PA possono adottare codici etici e di comportamento in aggiunta alle normative legali. Questi codici sono strumenti volontari che hanno l’obiettivo di integrare e rafforzare le normative esistenti, orientando le PA nell’adozione e nell’utilizzo responsabile dei sistemi IA.

I codici etici possono riguardare, ad esempio:

  • Selezione e uso dei sistemi di IA: Aiutare le PA a selezionare i sistemi IA più adeguati, rispettando le normative vigenti.
  • Uso dei sistemi IA da parte dei dipendenti: Stabilire regole chiare per l’utilizzo di tali sistemi all’interno dell’amministrazione.

Tuttavia, è fondamentale che tali codici non abbassino il livello di protezione dei diritti fondamentali previsti dalle normative vigenti. La creazione di codici etici deve coinvolgere tutte le parti interessate, comprese le organizzazioni della società civile, università e centri di ricerca, per garantire un approccio inclusivo e trasparente.

Inoltre, i codici etici dovrebbero incentivare l’applicazione di requisiti più severi per i sistemi di IA non ad alto rischio, includendo principi etici e best practice internazionali per garantire un uso affidabile e responsabile dell’IA nella pubblica amministrazione.

Tra le raccomandazioni principali emerge l’importanza di mitigare i rischi potenziali lungo tutto il ciclo di vita dei sistemi IA, garantendo che tali tecnologie siano al servizio dell’uomo, in una dimensione che valorizzi l’autonomia e la dignità individuale.

I codici etici per l’IA nelle PA dovrebbero guidare la condotta degli attori coinvolti nello sviluppo di tali sistemi, promuovendo competenze professionali, educazione continua e una crescente consapevolezza pubblica, nonché un uso dell’IA che favorisca il benessere sociale e ambientale.

Inoltre, i codici è opportuno che siano periodicamente rivisti per mantenersi aggiornati rispetto all’evoluzione tecnologica e normativa, e che siano elaborati in consultazione con esperti e rappresentanti della società civile.

Questo approccio è essenziale non solo per garantire il rispetto dei diritti dei cittadini, ma anche per rispondere agli obiettivi di sostenibilità previsti dal Green Deal europeo.

Il rispetto del GDPR

L’adozione di sistemi IA nella PA impone il rispetto del GDPR, in particolare i principi stabiliti nell’articolo 5. Il trattamento dei dati deve essere lecito, trasparente e finalizzato a scopi legittimi, espliciti e determinati.

I dati devono essere pertinenti e limitati a ciò che è necessario, accurati e aggiornati, con misure adeguate per garantire sicurezza e riservatezza. Si sottolinea l’obbligo di informazione verso gli interessati andando forse oltre a quanto stabilito dall’IA ACT includendo non solo l’impiego dell’IA ma anche le finalità, i criteri e i metodi utilizzati dai sistemi di IA.

La valutazione d’impatto sulla protezione dei dati personali (DPIA) è necessaria e fornire una descrizione delle misure tecniche e organizzative per proteggere i dati fin dalla progettazione e per impostazione predefinita.

È inoltre fondamentale che le decisioni automatizzate siano trasparenti e comprensibili, con la possibilità di un intervento umano nelle scelte critiche (“human in the loop”). I sistemi IA devono ridurre al minimo i rischi di discriminazione algoritmica, proteggendo gli individui da errori derivanti da dati imprecisi.

Le PA devono essere consapevoli del loro ruolo di titolare del trattamento e garantire che, anche in caso di outsourcing o collaborazione con terzi, i dati siano trattati in conformità con la normativa.

Una valutazione attenta dei rischi e misure correttive sono essenziali per evitare trattamenti illeciti e proteggere i diritti degli individui.

Inoltre, l’adozione dell’IA nella PA richiede una formazione continua dei dipendenti pubblici, non solo tecnici, per garantire una comprensione completa degli aspetti etici, legali e operativi.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link