Sui soldi non c’è gara: l’AI cinese è costata “solo” 6 milioni di dollari
DeepSeek, una start-up cinese fondata dalla società High-Flyer, sta rapidamente guadagnando terreno nel settore dell’intelligenza artificiale, sfidando giganti come OpenAI e Google con risultati sorprendenti. Il suo modello di punta, DeepSeek-R1, ha ottenuto un impressionante 97,3% nei test matematici MATH-500, dimostrando una notevole capacità di risolvere problemi complessi, battendo tra l’altro anche la concorrenza del più popolare ChatGPT (96,4%). Questo colloca DeepSeek tra le migliori AI attualmente in circolazione.
Oltre alle prestazioni, ciò che rende DeepSeek particolarmente temibile per le Big Tech americane è la sua efficienza economica: gli ingegneri cinesi hanno dichiarato di aver addestrato il modello con soli 6 milioni di dollari, una cifra ben lontana dai costi esorbitanti sostenuti da aziende come Meta e Alphabet. A rendere il quadro ancora più teso, il timore che la Cina possa guadagnare un vantaggio strategico nel settore AI ha contribuito al recente crollo in borsa di diversi giganti tecnologici: Nvidia, azienda che produce microchip, ha perso il 12%, seguita da forti ribassi per Meta, Alphabet e altri produttori di chip.
DeepSeek vs ChatGpt, sfida a colpi di 600.000 esempi
Chi ha detto che per diventare un genio servano anni di studio e sudate nottate sui libri? A quanto pare, bastano 600.000 esempi ben scelti e un po’ di addestramento mirato. Il modello di punta di DeepSeek, chiamato DeepSeek-R1, utilizza circa 600.000 esempi di addestramento dedicati al ragionamento. Gli sviluppatori hanno sottoposto il sistema a un’enorme quantità di esercizi specifici per insegnargli a risolvere problemi complessi, affinando le sue capacità logiche passo dopo passo. Questo processo permette al modello di imparare dai propri errori e migliorare le sue prestazioni nel tempo. Anche se sono stati usati tantissimi dati per l’addestramento, DeepSeek-R1 si è dimostrato estremamente efficiente, dimostrando che non è necessario avere a disposizione risorse gigantesche per ottenere risultati di altissimo livello.
Una delle innovazioni più importanti che rendono DeepSeek-R1 così efficace è un metodo di apprendimento chiamato Group Relative Policy Optimization (GRPO). Questo sistema permette al modello di imparare in modo intelligente, utilizzando solo le risorse che servono davvero. In pratica, è come se l’IA capisse quali parti del problema sono più importanti da affrontare, concentrandosi su quelle e riducendo il lavoro inutile. Questo approccio rende l’intero processo più veloce e meno costoso rispetto ai metodi tradizionali.
DeepSeek vs ChatGpt: una sfida a colpi di continui test
La matematica non è un’opinione, ancora di più quando si tratta di DeepSeek. Nel test matematico avanzato MATH-500, DeepSeek-R1 ha raggiunto un punteggio straordinario del 97,3%, dimostrando di saper risolvere problemi complessi con una precisione quasi perfetta. Questo risultato colloca DeepSeek-R1 tra i migliori sistemi di intelligenza artificiale mai sviluppati in questo campo. Un altro successo importante è stato ottenuto nel test AIME 2024, dove DeepSeek-R1-Zero ha inizialmente raggiunto una precisione del 71,0%, un risultato già molto promettente. Questi test dimostrano la capacità del sistema di affrontare compiti matematici impegnativi, con risultati che superano la maggior parte delle aspettative iniziali di tanti esperti.
La strategia di voto a maggioranza ha dato a DeepSeek-R1-Zero una marcia in più, facendogli raggiungere un’accuratezza dell’86,7% nel test AIME 2024. Ma di cosa si tratta esattamente? Immagina di dover rispondere a una domanda difficile e di poter chiedere consiglio a un gruppo di esperti: invece di fidarti di un’unica opinione, raccogli più risposte e scegli quella che emerge con maggiore consenso. Ecco, l’IA fa esattamente lo stesso: genera più soluzioni, le confronta e seleziona quella più affidabile. Questo metodo permette di correggere errori occasionali e migliorare la precisione complessiva. E come si vede anche dal grafico, grazie a questo approccio, DeepSeek-R1-Zero è riuscito a superare persino OpenAI-o1-0912, che ha ottenuto un 83,3%, nonostante l’uso di tecnologie molto più costose.
DeepSeek vince anche la sfida della programmazione
Se il codice di Hammurabi dettava legge nell’antica Babilonia, DeepSeek-R1 prova invece ora a stabilire nuove regole nel mondo della programmazione. DeepSeek-R1 ha infatti dimostrato capacità straordinarie nel campo della programmazione, ottenendo risultati di rilievo in test progettati per valutare competenze avanzate. Nel test Codeforces, una competizione globale di scrittura di codice, il modello ha superato il 96,3% dei partecipanti umani, confermandosi tra i più competitivi nel risolvere problemi complessi con precisione e rapidità. Anche nel test LiveCodeBench, che valuta le abilità di programmazione su diversi linguaggi, ha raggiunto un punteggio del 65,9%, leggermente superiore al 63,4% registrato da OpenAI-o1-1217, uno dei principali concorrenti.
DeepSeek, le performance non crollano neppure con versioni ridotte
Le dimensioni a quanto pare non contano: piccolo non vuol dire infatti privo di potenza. DeepSeek-R1-Distill-Qwen-32B, una versione ridotta del modello principale, ha raggiunto un impressionante 72,6% di precisione nel test matematico AIME 2024. Questo risultato lo pone davanti ad altri modelli ridotti di riferimento, come OpenAI-o1-mini, che ha ottenuto un 63,6% nello stesso test. La capacità di DeepSeek-R1-Distill-Qwen-32B di superare i suoi concorrenti più costosi dimostra che è possibile ottenere prestazioni elevate anche con modelli più compatti e meno dispendiosi. Questo dato è particolarmente significativo perché evidenzia come l’ottimizzazione delle risorse non vada a discapito della qualità e dell’efficacia del modello.
La chiave del successo di questa versione compatta risiede nell’uso di tecniche di distillazione, un processo che consente di trasferire conoscenze da un modello più grande e complesso a uno più piccolo, mantenendo comunque prestazioni eccellenti. Questo approccio rende il modello più accessibile e leggero, senza comprometterne la capacità di affrontare compiti complessi.
DeepSeek, il concorrente perfetto per un quiz televisivo
Se DeepSeek-R1 fosse un concorrente a un quiz televisivo, sarebbe quello che preme il pulsante prima di tutti anche del conduttore che pone la domanda. Nel test MMLU (Massive Multitask Language Understanding), pensato per valutare la conoscenza su un’ampia gamma di argomenti, ha ottenuto un punteggio del 90,8%, rispondendo correttamente a oltre nove domande su dieci.
Questo risultato è particolarmente significativo perché il test include domande su materie molto diverse, dalla storia alla scienza, passando per letteratura e cultura generale. La capacità di eccellere in un contesto così diversificato evidenzia che DeepSeek-R1 non è solo uno strumento matematico avanzato, ma anche un sistema con una vasta “cultura generale”. Si tratta di un’intelligenza artificiale capace di comprendere e affrontare tematiche complesse con un livello di preparazione paragonabile a quello di uno studente altamente qualificato.
DeepSeek, tutto giusto finché non si fanno domande sulla Cina
Tuttavia, nonostante questi successi, DeepSeek solleva alcune preoccupazioni legate alla sua origine cinese e al forte controllo esercitato dallo Stato sulle aziende tecnologiche del Paese. In alcuni test, il modello ha mostrato limiti nella libertà di risposta: ad esempio, quando interrogato su temi sensibili come la strage di Piazza Tienanmen, la situazione degli uiguri o le origini del Covid-19, fornisce risposte evasive o evita del tutto il tema. Anche domande su Winnie the Pooh, associato spess in maniera ironica al presidente Xi Jinping, vengono censurate. Questi episodi alimentano i timori che DeepSeek possa essere soggetto di censura governativa. Non solo, per molti analisti c’è il rischio che i dati condivisi con DeepSeek possano essere accessibili alle autorità cinesi, una preoccupazione simile a quella sollevata da tempo per TikTok.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link