L’intelligenza artificiale adesso corre, governarla con saggezza non è facile

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Finanziamenti e agevolazioni

Agricoltura

 




Web

Finanziamo agevolati

Contributi per le imprese

 

Il 2024 è stato l’anno in cui i sistemi di Intelligenza Artificiale (IA) hanno segnato una sempre più rapida e larga applicazione. Nei più svariati ambiti. Con sempre nuove prospettive e altrettanto pressanti interrogativi. Per giungere, come facilmente prevedibile, a una presenza pressoché ubiquitaria. Secondo le prime stime nel 2025 il mercato dell’IA è destinato a crescere del 26% in tutto il mondo. Per Gartner for Information Technology (IT) Executives, l’IA trainerà ancor più la spesa per le IT in Europa raggiungendo nel i 1.280 miliardi di dollari. Un +8,7% rispetto al 2024, che dovrebbe chiudersi a 1.180 miliardi di dollari. Con una prevalenza degli investimenti soprattutto per le IA generative nelle sue varie applicazioni e finanziamenti aumentati vertiginosamente secondo l’Artificial Intelligence Index Report della Standford University. La quota di mercato più grande per settore dell’IA è quello della sanità che già rappresenta il 15,70%, seguito da finanza e produzione per il 13,65%. Proprio nella sanità si riscontrano i maggiori progressi nella ricerca, nella diagnostica, nei trattamenti di precisione e in quelli personalizzati. Sistemi come AlphaFold di DeepMind hanno accelerato la scoperta di proteine definendo le strutture in pochi minuti. Con un notevole grado di accuratezza, reindirizzando tempo e risorse preziose per aiutare a risolvere le più grandi sfide mediche. Così i modelli linguistici di grandi dimensioni (LLM, Large Language Models) nei vari settori dell’assistenza.

È evidente l’accentramento di potere economico nelle mani delle Magnificent Seven: Alphabet (Google), Amazon, Apple, Meta (Facebook e Instagram, WhatsApp e Messenger, Oculus Rift, visori di realtà virtuale), Microsoft, Nvidia, Tesla. Una vera e propria élite di aziende che dominano il mercato globale. Con una ingente disponibilità di risorse e potere di mercato tale da consentire enormi investimenti. Come nel caso di Microsoft, tra i principali partner commerciali di OpenAI, che ha annunciato un piano per ottenere energia elettrica necessaria ai propri data center con la riapertura di uno dei reattori della centrale nucleare di Three Mile Island, impianto in Pennsylvania diventato famoso alla fine degli anni Settanta per il più grave incidente nucleare nella storia degli Stati Uniti. Sopra tutti Elon Musk, che con i suoi asset principali come Tesla, SpaceX e xAI (noto soprattutto per il chatbot Grok), è la persona più ricca al mondo, con un patrimonio stimato di 428 miliardi di dollari. SpaceX è la società privata di maggiore valore, davanti a ByteDance (società madre di TikTok) e a OpenAI (sviluppatore di ChatGPT). Nella classifica dei supermiliardari, dopo Musk, segue Jeff Bezos, fondatore e presidente di Amazon. Altra faccia della stessa medaglia è il gap tecnologico dell’Europa rispetto ad altri Stati come gli Stati Uniti o la Cina. Nel Rapporto Draghi sulla competitività europea in relazione alle innovazioni tecnologiche dei sistemi di IA si segnala che dal 2017 il 73% dei modelli di IA è stato sviluppato negli Stati Uniti. Considerando le principali start-up a livello mondiale, il 61% dei finanziamenti globali va ad imprese nate in Usa, il 17% a quelle cinesi e solo il 6% a quelle dell’Ue. Di queste ultime, un terzo è migrata poi negli Stati Uniti per poter incontrare un mercato dei capitali in grado di finanziarne lo sviluppo.

Emerge una questione di sostenibilità dal punto di vista etico, sociale e politico. Il Presidente della Repubblica Sergio Mattarella alla XVII Conferenza delle Ambasciatrici e degli Ambasciatori d’Italia, svolta il 16 dicembre 2024, ha parlato di «operatori internazionali svincolati da ogni patria, la cui potenza finanziaria supera oggi quella di Stati di media dimensione, e la cui gestione di servizi essenziali sfiora, sovente, una condizione monopolistica». Concetto ribadito il giorno successivo alla Cerimonia per lo scambio degli auguri di fine anno con i rappresentanti delle istituzioni, delle forze politiche e della società civile: «La concentrazione in pochissime mani di enormi capitali e del potere tecnologico, così come il controllo accentrato dei dati – definibili come il nuovo petrolio dell’era digitale – determinano una condizione di grave rischio. Gli effetti sono evidenti. Pochi soggetti – non uno soltanto, come ci si azzarda a interpretare – con immense disponibilità finanziarie. Grandi società che dettano le loro condizioni ai mercati e – al di sopra dei confini e della autorità degli Stati e delle Organizzazioni internazionali – tendono a sottrarsi a qualsiasi regolamentazione». Insomma, poche aziende che hanno la possibilità di reggere una sorta di IA globale del pianeta (global repository of intelligence). Un monopolio con un possesso illimitato di dati sensibili.

Una vera e propria ingegneria sociale. Siamo al “capitalismo della sorveglianza” di Shosana Zuboff. Ci si appropria dell’esperienza umana usandola come materia prima da trasformare in dati sui comportamenti per essere trasformati in prodotti predittivi. In un orizzonte in cui avremo meno potere e controllo, nuove fonti d’ineguaglianza divideranno le persone. In pochi saranno soggetti e in tanti oggetti. Una visione che minaccia delicati sistemi di natura sociale come la democrazia e la capacità di ogni persona di elaborare un giudizio morale autonomo. Emerge, ancora una volta, un ineludibile e sostanziale interrogativo. Quale governance, ovvero quale etica e regolamentazione per le innovazioni tecnologiche secondo uno sviluppo umanocentrico? Come bilanciare innovazione e regolamentazione? Proprio in questi giorni il Garante per la Protezione dei Dati Personali (GPDP) ha adottato un provvedimento correttivo e sanzionatorio nei confronti di OpenAI per il trattamento dei dati personali finalizzati all’addestramento di ChatGPT, dopo istruttoria avviata nel 2023. In particolare senza aver prima individuato un’adeguata base giuridica e violando il principio di trasparenza con i relativi obblighi informativi nei confronti degli utenti. Inoltre, senza prevedere meccanismi per la verifica dell’età, emerge il rischio di esporre i minori di 13 anni a risposte inidonee rispetto al loro grado di sviluppo e autoconsapevolezza. Richiamando “Il crollo di Babele”, recente libro di Paolo Benanti, attuale e non eccessiva risulta la necessità di definire guardrail etici nelle democrazie computazionali. Sebbene a fronte delle circa 100 leggi sul settore high tech e delle oltre 270 autorità di regolamentazione attive nelle reti digitali in tutti gli Stati membri come emerge dal Rapporto Draghi.

È proprio l’esigenza di una cooperazione che riconosca la peculiarità dell’essere umano e delle sue capacità – servendosi delle tecnologie digitali per ampliarle, non per restringerle – rileva l’esigenza di uno sforzo comunitario per un’etica applicata ai sistemi di IA. Tutelando diritti fondamentali e senza voler significare un irrealistico neo-luddismo. Compito non certo facile vista la sproporzione tra lentezza dei regolatori e velocità delle innovazioni tecnologiche che ci fanno dire, con obiettiva certezza, che domani è già oggi. Né tantomeno nell’accondiscendere la polarizzazione tra “apocalittici e integrati”, tecnofobi e tecnofili. Ovvero tra coloro che hanno nei confronti delle innovazioni tecnologiche un atteggiamento del tutto critico tale da delineare un futuro distopico sottomesso alla tecnologia e gli altri, invece, che vedono nei sistemi di IA la soluzione di ogni problema con una sorta di totalitaria e fideistica delega tecnologica. Per approdare, secondo Ray Kurzweil, ad una «singolarità sempre più vicina, quando l’umanità si unisce all’IA». Posizioni che, nella loro radicalità, non rilevano la prioritaria necessità: umanizzare i sistemi di IA passando dall’algocrazia (dominio degli algoritmi) all’algoretica, nuovo grande capitolo dell’etica introdotto da P. Benanti. Ovvero armonizzare le abilità dei sistemi computazionali con valori etici. Algoretica non dice certo consapevolezza etica del sistema c.d. intelligente, perché la macchina non è qualcuno dotato di capacità soggettiva. «Non si tratta di dotare la macchina di una capacità di giudizio, cosa che è impossibile, e nemmeno solo di surrogarla con guardrail etici. Si tratta anche di creare uno spazio di critica sociale in cui sia possibile chiederci cosa facciano gli algoritmi, che funzione abbiano».

È l’orizzonte della visione umanocentrica dei sistemi di IA che Papa Francesco pone come obiettivo. Richiamata al G7 presieduto dall’Italia nel giugno del 2024. «A volte, spesso nel difficile compito del governare, siamo chiamati a decidere con conseguenze anche su molte persone. Da sempre la riflessione umana parla a tale proposito di saggezza, la phronesis della filosofia greca e almeno in parte la sapienza della Sacra Scrittura. Di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita». È sfida di umanità. È tutela della democrazia rappresentativa.

Coordinatore Osservatorio di Bioetica della Diocesi di Napoli, già senatore, membro del Comitato Nazionale per la Bioetica e presidente nazionale di Scienza & Vita

Finanziamo agevolati

Contributi per le imprese

 





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link