DeepSeek, ecco il lato oscuro dell’AI cinese

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Sconto crediti fiscali

Finanziamenti e contributi

 


Con un nuovo modello che eguaglia le prestazioni di ChatGPT o1, a poco più di due anni dal debutto di quest’ultima, la startup cinese DeepSeek è riuscita a trasformare le restrizioni americani (divieti di esportazione dei chip di Nvidia eccetera) in innovazione, entrando a gamba tesa nella corsa all’intelligenza artificiale generativa dove gli Usa detenevano il dominio assoluto.

Con lati oscuri e poco chiari, però, che è necessario evidenziare. A partire dal possibile impatto cyber, geopolitico e sulla sicurezza nazionale.

DeepSeek: la startup cinese che sfida ChatGpt come nel problema dei tre corpi

La comunità dell’intelligenza artificiale è in fermento per il modello open source DeepSeek R1. DeepSeek sostiene che R1 eguaglia o addirittura supera ChatGPT o1 di OpenAI su diversi benchmark chiave, ma a un costo inferiore.

Prestito condominio

per lavori di ristrutturazione

 

Tanto che il presidente USA Donald Trump ha affermato che è “un campanello d’allarme per noi”. Per gli Usa e l’Occidente è una minaccia se la Cina riesce a fare passi avanti nell’AI nonostante i dazi.

Da un altro punto di vista “questo potrebbe essere un passo avanti davvero equo, ottimo per i ricercatori e gli sviluppatori con risorse limitate, soprattutto quelli del Sud globale”, afferma Hancheng Cao, assistente alla cattedra di sistemi informativi presso la Emory University.

Il successo di DeepSeek è ancora più notevole se si considerano i vincoli che le aziende cinesi di intelligenza artificiale devono affrontare a causa dei crescenti controlli sulle esportazioni di chip all’avanguardia da parte degli Stati Uniti.

Ma le prime prove dimostrano che queste misure non stanno funzionando come previsto.

Invece di indebolire le capacità di IA della Cina, le sanzioni sembrano spingere startup come DeepSeek a innovare in modi che privilegiano l’efficienza, la condivisione delle risorse e la collaborazione.

Un aspetto oscuro, dubbio, è anche se in effetti siano veritiere le informazioni sul paper di Deepseek; alcuni esperti dubitano che si siano usate Gpu economiche e i costi, anche tenuto conto di quelli energetici, siano così bassi.

In ogni caso sembra probabile che ci sia stata una svolta nel modello di costi e di efficienza per l’AI, con impatti geopolitici tutti da vedere.

Sulla piattaforma X Alessandro Aresu, autore del libro “Geopolitica dell’intelligenza artificiale”, ricorda “la Lunga Marcia di Huawei, citata in modo esplicito da HiSilicon, e anche nelle nuove soluzioni e integrazioni dell’azienda. La Lunga Marcia di BYD. Quella di ByteDance. La Lunga Marcia di DeepSeek”, per spiegare cosa non funziona in questo modello in cui la sorpresa cinesa sembra ispirarsi alla saga del “problema dei tre corpi”.

Conto e carta

difficile da pignorare

 

“Gli USA (gli alieni, nella metafora del libro, ndr) hanno individuato l’avversario e deciso di bloccare il suo sviluppo, in modo progressivamente sempre più netto, prima con controlli di investimenti, poi con controlli di esportazioni e altri strumenti di capitalismo politico”, posta Aresu su X.

Nel romanzo gli alieni (gli americani, ndr) hanno l’umanità (la Cina, ndr) in pugno: una monarchia tecnologica soverchiante dove gli alieni gridano “non avrete mai le nostre capacità, siete insetti!”, e i cinesi rispondono orgogliosamente “sì, siamo insetti, siamo moltissimi, istruiti, organizzati, resisteremo e vinceremo”.

Aresu conclude i suoi post su X: “E l’umanità-Cina vuole proprio sorprendere gli alieni-americani, in una guerra ibrida di annunci, inganni e risultati reali, resistendo e rilanciando sempre, fino a frustrare chi si crede razionale. Così chi era in trappola intrappola l’avversario”.

La creazione di DeepSeek R1

Per realizzare R1, DeepSeek ha dovuto rielaborare il suo processo di addestramento per ridurre lo sforzo sulle sue GPU, una varietà rilasciata da Nvidia per il mercato cinese che ha prestazioni limitate alla metà della velocità dei suoi prodotti di punta, secondo Zihan Wang, ex dipendente di DeepSeek e attuale dottorando in informatica alla Northwestern University.

Cessione crediti fiscali

procedure celeri

 

DeepSeek R1 ha ricevuto l’apprezzamento dei ricercatori per la sua capacità di affrontare compiti di ragionamento complessi, in particolare in matematica e codifica. Secondo Lorenzo Guasti, tecnologo di Indire, che ha testato l’app di Gen AI cinese, “in ambito Stem (matematica, fisica eccetera) è molto potente, forse più di ChatGpt, a un primo esame, anche se si osservano i bias dovuti all’addestramento su testi cinesi (anche censurati, ndr)”.

Il modello impiega un approccio “a catena di pensiero” simile a quello utilizzato da ChatGPT o1, che gli consente di risolvere i problemi elaborando le richieste passo dopo passo.

Dimitris Papailiopoulos, ricercatore principale del laboratorio di ricerca AI Frontiers di Microsoft, afferma che ciò che lo ha sorpreso di più di R1 è la sua semplicità ingegneristica. “DeepSeek ha puntato a ottenere risposte precise piuttosto che a descrivere nel dettaglio ogni passaggio logico, riducendo in modo significativo il tempo di calcolo e mantenendo al contempo un alto livello di efficacia”, ha spiegato a Mit Technology Review.

La versione per dispositivi mobili

Inoltre, DeepSeek ha rilasciato sei versioni più piccole di R1, abbastanza miniaturizzate da permettere un’esecuzione locale sui computer portatili.

Una di queste sostiene di aver addirittura superato o1-mini di OpenAI in alcuni benchmark.

“DeepSeek ha replicato in larga misura o1-mini e lo ha reso open source”, ha twittato Aravind Srinivas, CEO di Perplexity. La startup non ha risposto alla richiesta di commenti di MIT Technology Review.

DeepSeek, la startup sconosciuta

Nonostante il fermento intorno a R1, DeepSeek rimane relativamente una startup sconosciuta. Con sede a Hangzhou, in Cina, è stata fondata nel luglio 2023 da Liang Wenfeng, ex studente della Zhejiang University dove ha studiato ingegneria informatica ed elettronica.

Prestito condominio

per lavori di ristrutturazione

 

È stata incubata da High-Flyer, un hedge fund fondato da Liang nel 2015. Come Sam Altman di OpenAI, Liang punta a costruire un’intelligenza artificiale generale (AGI), una forma di IA in grado di eguagliare o addirittura battere gli esseri umani in una serie di compiti.

Fonti cinesi mi dicono che, a differenza di OpenAI che prima o poi potrebbe quotarsi in Borsa, “l’hedge fund cinese non ha alcuna Ipo all’orizzonte: DeepSeek potrebbe non essere mai quotata”.

Gli LLM di DeepSeek e le scorte di chip Nvidia

L’addestramento di modelli linguistici di grandi dimensioni (LLM) richiede un team di ricercatori altamente qualificati e una notevole potenza di calcolo.

In una recente intervista rilasciata al media cinese LatePost, Kai-Fu Lee, imprenditore veterano ed ex direttore di Google China, ha dichiarato che solo “i giocatori di prima fila” erano soliti impegnarsi nella costruzione di modelli di base come ChatGPT, poiché si tratta di un’attività che richiede molte risorse.

A complicare ulteriormente la situazione sono sopraggiunti i controlli statunitensi sulle esportazioni di semiconduttori avanzati. La decisione di High-Flyer di avventurarsi nell’IA, tuttavia, si lega direttamente a questi vincoli.

In anticipo sull’erogazione delle sanzioni, Liang ha acquistato una notevole scorta di chip Nvidia A100, un tipo di chip ora vietato all’esportazione in Cina. La testata cinese 36Kr stima che l’azienda abbia più di 10.000 unità di questi chip in magazzino. Ma Dylan Patel, fondatore della società di ricerca sull’intelligenza artificiale SemiAnalysis, ritiene che ne abbia almeno 50.000.

Il potenziale riconoscimento di queste scorte per l’addestramento dell’intelligenza artificiale ha spinto Liang a fondare DeepSeek, che è stata in grado di utilizzarle in combinazione con chip a bassa potenza per sviluppare i suoi modelli.

Microcredito

per le aziende

 

Come DeepSeek ha trasformato le sanzioni e le difficoltà hardware in un’opportunità

Giganti tecnologici come Alibaba e ByteDance, oltre a una manciata di startup con investitori molto facoltosi, dominano lo spazio cinese dell’intelligenza artificiale. Finora hanno reso difficile la competizione per le piccole e medie imprese. Una società come DeepSeek, che non ha intenzione di raccogliere fondi, è una rarità.

Zihan Wang, un ex dipendente di DeepSeek, ha detto al MIT Technology Review di aver avuto accesso ad abbondanti risorse di calcolo e alla libertà di sperimentare quando lavorava in DeepSeek, “un lusso che pochi neolaureati avrebbero avuto in qualsiasi azienda”.

In un’intervista alla testata cinese 36Kr nel luglio 2024, Liang ha dichiarato che un’ulteriore sfida che le aziende cinesi devono affrontare, oltre alle sanzioni sui chip, è che le loro tecniche di progettazione dell’intelligenza artificiale tendono a essere meno efficienti.

“Noi (la maggior parte delle aziende cinesi, ndr) dobbiamo consumare il doppio della potenza di calcolo per ottenere gli stessi risultati. Se a ciò si aggiungono le lacune nell’efficienza dei dati, ciò potrebbe significare che abbiamo bisogno di una potenza di calcolo fino a quattro volte superiore. Il nostro obiettivo è quello di colmare continuamente queste lacune”, ha affermato.

Tuttavia la startup cinese ha trovato il modo di ridurre l’utilizzo della memoria e accelerare i calcoli senza sacrificare in modo significativo la precisione. “Il team ama trasformare una sfida hardware in un’opportunità di innovazione”, afferma Wang.

Open source ed efficienza, il binomio vincente

Liang stesso rimane profondamente coinvolto nel processo di ricerca di DeepSeek, conducendo esperimenti insieme al suo team. “L’intero team condivide una cultura collaborativa e la dedizione alla ricerca”, afferma Wang.

Oltre a dare priorità all’efficienza, le aziende cinesi stanno abbracciando sempre più i principi dell’open source.

Alibaba Cloud ha rilasciato più di 100 nuovi modelli di intelligenza artificiale open source, che supportano 29 lingue e si rivolgono a varie applicazioni, tra cui la codifica e la matematica. Allo stesso modo, startup come Minimax e 01.AI hanno reso disponibili i loro modelli.

Open source ed efficienza, il binomio vincente

Liang stesso rimane profondamente coinvolto nel processo di ricerca di DeepSeek, conducendo esperimenti insieme al suo team. “L’intero team condivide una cultura collaborativa e la dedizione alla ricerca”, afferma Wang.

Oltre a dare priorità all’efficienza, le aziende cinesi stanno abbracciando sempre più i principi dell’open source.

Alibaba Cloud ha rilasciato più di 100 nuovi modelli di intelligenza artificiale open source, che supportano 29 lingue e si rivolgono a varie applicazioni, tra cui la codifica e la matematica. Allo stesso modo, startup come Minimax e 01.AI hanno reso disponibili i loro modelli.

Gli LLM nel mondo: il 36% parla cinese

Secondo un libro bianco pubblicato l’anno scorso dalla China Academy of Information and Communications Technology, un istituto di ricerca statale, il numero di modelli linguistici di grandi dimensioni di IA in tutto il mondo ha raggiunto quota 1.328. II 36% di questi proviene dalla Cina.

Pechino si colloca così al secondo posto tra i maggiori contributori all’IA, dopo gli Stati Uniti.

“Questa generazione di giovani ricercatori cinesi si identifica fortemente con la cultura dell’open source perché ne trae molti vantaggi”, afferma Thomas Qitong Cao, professore assistente di politica tecnologica alla Tufts University.

Il controllo delle esportazioni da parte degli Stati Uniti ha sostanzialmente messo le aziende cinesi in un angolo, costringendole a essere molto più efficienti con le loro limitate risorse di calcolo”, afferma Matt Sheehan, ricercatore di IA presso il Carnegie Endowment for International Peace. “Probabilmente in futuro assisteremo a un forte consolidamento legato alla mancanza di calcolo”.

Questo potrebbe già essere agli albori. Due settimane fa, Alibaba Cloud ha annunciato di aver stretto una partnership con la startup 01.AI, fondata da Kai-Fu Lee e con sede a Pechino, per unire i team di ricerca e creare un “laboratorio industriale di grandi modelli”.

“È efficiente dal punto di vista energetico e naturale che emerga una sorta di divisione del lavoro nel settore dell’IA”, afferma Cao, professore della Tufts. “La rapida evoluzione dell’IA richiede agilità alle aziende cinesi per sopravvivere”.

Il dado è tratto. La sfida cinese agli Usa è iniziata. Una sfida che riguarda anche il rischio disinformazione. Infatti i testi (con la censura cinese) sono serviti al training degli LLM di deepSeek.

Ora chi rimane fuori è l’Europa, più impegnata a regolamentare che ad innovare. Ma la formazione a basso costo cambierà l’industria e gli Llm cinesi, più economici da realizzare e il cui addestramento ha sfruttato 2.000 chip di seconda classe (contro i 16.000 chip di prima scelta del modello di Meta), dimostrano che non contano solo gli investimenti (ingenti) ma soprattutto la volontà di innovare e di essere competitivi.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link