AI Act / Il regolamento UE sull’Intelligenza artificiale è in vigore

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Prestito condominio

per lavori di ristrutturazione

 


Il 2 Febbraio 2025, nonostante le intimidazioni degli oligarchi delle Big Tech e del presidente americano Donald Trump, è entrato in vigore l’Ai Act, il primo regolamento UE sull’intelligenza artificiale. Un iter legislativo iniziato nel 2021 con la prima proposta della commissione europea su questo ambito. Un regolamento che prova a dare una normativa in grado di disciplinare il mercato delle IA. Vengono suddivise le tecnologie in livelli di rischio, ogni livello di rischio avrà una normativa ad hoc con larghe esenzioni per i governi.

Carta di credito con fido

Procedura celere

 

Ai Act / cosa prevede il regolamento

L’Ai Act suddivide le tecnologie in 4 categorie di rischio in base alla loro pericolosità per i diritti e la sicurezza dei cittadini. Ad ogni livello corrispondono regolamentazioni differenti. I 4 livelli sono: minimo, limitato, alto e inaccettabile. Le tecnologie minime non saranno soggette a regolamentazione in quanto non costituiscono una minaccia, un esempio sono i filtri anti spam per le e-mail. I rischi limitati comprendono tecnologie come i chatbot utilizzati nell’assistenza clienti, queste avranno un controllo minimo. Il livello ad alto rischio sarà soggetto a norme più stringenti di controllo e comprende le IA utilizzate nei servizi essenziali. Le tecnologie inaccettabili consistono in un serio rischio per la sicurezza e la privacy dei cittadini e sono considerate eticamente sbagliate, per questi motivo ne viene vietato l’utilizzo e la vendita per i privati.

Queste comprendono le tecnologie che usano tecniche manipolative per influenzare il comportamento delle persone, le tecnologie che rilevano i dati biometrici volte alla profilazione degli individui su base etnica, politica, religiosa o sessuale. Vietati tutti i sistemi che sono in grado di valutare preventivamente la possibilità che un individuo commetta reati basandosi su informazioni personali. Vietati a scuola e al lavoro i sistemi che analizzano le emozioni per valutare le risposte di un individuo. Infine vietate anche le IA che tramite le immagini presenti sul web e sui social senza il consenso dei soggetti interessati possono creare banche dati per il riconoscimento facciale.

Sono previste molte sanzioni per chi non rispetta tali divieti fino a 35 milioni di euro o al 7% del fatturato globale. Saranno multate start up e le piccole medie imprese in proporzione alla loro grandezza. Inoltre verranno istituiti degli spazi appositi che simulino un ambiente reale, da mettere a disposizione delle imprese in modo da non ostacolare lo sviluppo di nuove intelligenze artificiali.

Ai Act / Le esenzioni per i governi

I governi hanno molte esenzioni sull’utilizzo di tecnologie a rischio inaccettabile per ragioni di sicurezza nazionale. Le esenzioni secondo un’inchiesta di Investigate Europe riguarderanno anche agenzie private o paesi terzi che mettono a disposizione la tecnologia in uso dal governo. L’identificazione in tempo reale in luoghi pubblici sarà possibile per 16 reati differenti, che si rifanno alla sicurezza nazionale. Tra questi c’è l’omicidio, la minaccia di terrorismo, lo stupro, il traffico di droga ma anche la ricerca di persone scomparse.

Le concessioni continuano con la possibilità di usare strumenti di controllo e riconoscimento tramite le emozioni. Questo è concesso alle autorità di frontiera nella lotta all’immigrazione e all’interno delle strutture legate ad essa come i CPR. I governi saranno inoltre autorizzati a utilizzare AI per prevedere le probabilità per un individuo di commettere reati sulla base di informazioni personali, consentendo di stilare un elenco di persone ad alto rischio, questo metodo deve avere sempre un controllo umano alle spalle per poter essere utilizzato.

Ai Act / Le critiche: chi controllerà i controllori?

Le maggiori preoccupazioni della società civile riguardano il modo e la frequenza con cui i governi utilizzeranno le tecnologie definite dall’UE ”inaccettabili”. Queste controversie vengono fatte presente da molti anni all’UE da vari gruppi di attivisti. Infatti tramite la rilevazione biometrica in tempo reale si rischia di essere identificati in eventi come manifestazioni riunioni o scioperi senza il proprio consenso. Una situazione del genere minerebbe i diritti alla privacy alla libertà di riunione e associazione in pubblico.

Le circostanze e le norme per il controllo sul corretto utilizzo di queste apparecchiature da parte dei governi non sono chiare e lasciano molto alla discrezionalità dello stesso organo che le usa. Per questo motivo, la capacità di protezione e segretezza è già un valore aggiunto per le poche aziende in Italia che stanno proponendo servizi di Intelligenza Artificiale, tra le quali l’eccellenza siciliana Ricca IT originaria di Ragusa.

Ai Act SorveglianzaTante critiche anche sugli algoritmi che calcoleranno la pericolosità degli individui tramite informazioni personali. Basti pensare che un errore nell’algoritmo potrebbe compromettere la vita di una persona portando a forme di emarginazione sociale. La sicurezza nazionale è una definizione troppo ampia che .rischia di essere interpretata a proprio piacimento. Per motivi di sicurezza nazionale si può arrivare ad una sorveglianza di massa dei cittadini. La mancanza di chiari criteri di utilizzo e di supervisione non tutela i cittadini in caso di abuso di potere.

Carta di credito con fido

Procedura celere

 

Carlo Nibali





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link