Arriva il cinese Deepseek e cambia tutto il clima sull’intelligenza artificiale globale. Tanto che oggi Nvidia ha perso 600 miliardi in borsa.
Eppure era il 21 gennaio pomeriggio quando il neo-insediato presidente Trump annunciava alla Casa Bianca il lancio dello “Stargate project”, di una iniziativa di OpenAI – insieme con SoftBank, Oracle e il fondo emiratino Mgx – per creare una enorme infrastruttura di “AI data center” a uso esclusivo della stessa OpenAI per promuoverne la crescita:
- una crescita finalizzata, nelle parole di Donald Trump e di Sam Altman, a garantire la leadership americana nell’Intelligenza Artificiale (AI nel seguito) e a creare a breve termine 100mila nuovi posti di lavoro;
- con un impegno finanziario di 100 miliardi di dollari per l’anno in corso, destinato a crescere sino a 500 miliardi nel quadriennio (con dubbi però non solo di Elon Musk sulla capacità di reperire la cifra).
Il debutto di DeepSeek
Per ironia della sorte, o forse per una scelta volta a destare clamore, il precedente giorno 20 Liang Wenfeng – capo di un hedge-fund e promotore della piccola startup DeepSeek – aveva presentato al premier cinese e numero due del Paese Li Qiang R1, un “reasoning model” di AI messo a punto da DeepSeek, immediatamente diventato oggetto di stupore nel mondo (come si può vedere nella Tab. 1 che riporta in sequenza i titoli di alcuni degli articoli su DeepSeek e R1 apparsi nei giorni successivi) per almeno tre ragioni:
- il livello delle prestazioni del modello, giudicato da Marc Andreessen (uno dei più noti “venture capitalist” della Silicon Valley) come “one of the most amazing and impressive breakthroughs I’ve ever seen” ed entrato in un ranking molto popolare fra i “global top 10 in performance”, alle spalle (ma non molto distaccato) di OpenAI e Google DeepMind;
- la disponibilità estremamente limitata di chip di Nvidia, a causa del veto posto da Biden all’export in Cina dei chip più avanzati di concezione statunitense: gli ingegneri di DeepSeek, secondo quanto riportato da The New York Times, hanno dichiarato di aver utilizzato 2mila chip di Nvidia, mentre i concorrenti statunitensi dichiarano che ne sono indispensabili per il training di un modello “reasoning” almeno 16mila;
- il costo estremamente limitato per il training dei suoi ultimi modelli dichiarato da DeepSeek: 5,6 milioni di dollari, che possono essere messi a confronto con il costo fra 100 milioni e 1 miliardo di $ di cui ha parlato lo scorso anno (come ricorda The Wall Street Journal) il CEO di Anthropic Dario Amodei.
Cos’è DeepSeek e come funziona
DeepSeek è una startup cinese che ha attirato l’attenzione nel settore dell’intelligenza artificiale grazie allo sviluppo di modelli avanzati, tra cui il DeepSeek V3, un Large Language Model (LLM) con 671 miliardi di parametri.
Architettura e prestazioni
- DeepSeek V3 è progettato per competere con modelli all’avanguardia, mostrando prestazioni paragonabili in vari compiti di comprensione e generazione del testo, programmazione e risoluzione di problemi matematici.
- Utilizza un’architettura chiamata Mixture-of-Experts (MoE), che attiva solo una parte della rete neurale per ogni compito specifico, migliorando l’efficienza e riducendo i costi hardware.
- Ottimizzazione del training: Il modello è stato addestrato utilizzando solo 2,78 milioni di ore GPU, rispetto ai 30,8 milioni richiesti da modelli simili come Llama 3. Questa riduzione è stata possibile grazie a tecnologie come il FP8 (floating point 8), che migliorano l’efficienza del calcolo.
- Utilizzo di GPU H800: DeepSeek ha impiegato chip Nvidia H800, progettati per il mercato cinese, che pur essendo meno avanzati delle H100, sono stati ottimizzati per ottenere prestazioni elevate a costi inferiori. Questo ha permesso alla startup di superare in efficienza modelli sviluppati con hardware più potente.
- Costi di inferenza competitivi: I costi operativi per l’inferenza sono estremamente competitivi, con tariffe di 0,27 dollari per milione di token in input e 1,10 dollari in output. Questi prezzi sono circa un decimo rispetto a quelli praticati da aziende come OpenAI.
Tecniche avanzate
- Il modello incorpora la Multi-head Latent Attention (MLA), che migliora la capacità di estrarre informazioni chiave da un testo, aumentando l’accuratezza.
- Un’altra innovazione è la Multi-Token Prediction, che consente al modello di generare più token simultaneamente, accelerando il processo di inferenza e migliorando l’efficienza complessiva.
Redazione
La povertà (può) aguzza(re) l’ingegno: il precedente storico della nascita della “lean production” in Toyota
Non so se il quadro che ho delineato sopra – tratto sostanzialmente dagli articoli di Financial Times, The Economist, The New York Times e The Wall Street Journal riportati nella Tab. 1 – si rivelerà del tutto corretto, per la spinta alla manipolazione delle notizie che gli enormi interessi economico-finanziari in gioco e il pesante scontro geo-politico fra US e Cina in atto possono dare. Né è facile prevedere al momento, anche nell’ipotesi che il quadro sia corretto, quale potrà essere l’esito di uno scontro che si preannuncia durissimo.
Ma è uno scontro che mi ha fatto tornare alla mente quanto accadde a cavallo fra gli anni ’80 e ’90 nell’allora importantissima industria dell’auto con la giapponese Toyota, che – povera di risorse finanziarie rispetto alla leader globale statunitense General Motors – riuscì, con l’invenzione della “lean production” (una innovazione “frugale” di natura organizzativo-gestionale), ad avviare un processo di trasformazione che la portò a sostituire General Motors ai vertici mondiali e che si estese progressivamente a tutto il comparto, nonché (con gli ovvi adattamenti) a molti altri comparti dell’economia.
La Cina sta raggiungendo gli Usa nell’AI? O è addirittura vicina al sorpasso?
Non è solo la stampa cinese a esaltare il successo di DeepSeek, celebrato nel Paese come il “Davide” che batte il “Golia” statunitense, con il Global Times (giornale del Partito Comunista Cinese) che esprime soddisfazione su quanto siano risultate “fruitless” le restrizioni statunitensi alle vendite alle imprese cinesi dei chip più avanzati. “Is China surpassing the US in AI?” si chiede l’Hindustan Times, uno dei principali giornali indiani. E The Economist, giornale caratterizzato più dalle analisi approfondite che dal sensazionalismo, sottolinea nel titolo il pericolo per la leadership statunitense nell’AI e il problema che viene a porsi per Trump: “Chinese AI is catching up, posing a dilemma for Donald Trump- The success of cheap Chinese models threatens America’s technological lead.”
DeepSeek, le possibili implicazioni sul progetto Stargate
Quali potrebbero essere le implicazioni per le imprese focalizzate sulla costruzione di modelli “reasoning” negli US? Quali per Nvidia? Quali per le tre big tech leader mondiali nel “cloud”? Quali per Meta, con i suoi modelli “open source”?
È abbastanza ovvio – anche se la Borsa ci ha messo una settimana a prenderne atto – che la messa a punto da parte di DeepSeek (ma altre AI startup cinesi stanno percorrendo una strada simile) di un modello “reasoning” di AI con prestazioni (come detto) di poco inferiori a quelle dei modelli di punta di OpenAI e Google DeepMind, ma utilizzando solo un ottavo dei chip di Nvidia e con un costo estremamente più basso, cambi sensibilmente gli “economics” del comparto: soprattutto “distruggendo” la convinzione largamente condivisa che l’AI generativa – e quella “reasoning” a maggior ragione – richiedesse risorse tali da essere accessibile a un numero ristretto di imprese e da essere destinata a un assetto oligopolistico, da cui la corsa delle big tech ad investire cifre di grande rilievo per non perdere l’opportunità di sedere a quello che potremmo chiamare il “tavolo degli oligopolisti” (oltre 200 i miliardi di $ cumulativamente investiti nel solo 2024 da Alphabet-Google, Amazon, Microsoft e Meta: 80 e 60-65 quelli in crescita previsti per il 2025 rispettivamente da Microsoft e da Meta; 500 come visto quelli che StarGate sperava di riuscire a raccogliere nel quinquennio).
Le imprese statunitensi focalizzate sulla costruzione di modelli “reasoning” (OpenAI, Anthropic, xAI ..) dovranno dimostrare, se vogliono ottenere nuovi finanziamenti a valutazioni più elevate, che ai maggiori costi dei loro modelli – rispetto a quelli “cheap” cinesi – corrisponde una superiorità nelle prestazioni che giustifica tale differenza; potrebbero anche “copiare” la conformazione dei modelli cinesi, nota perché sono modelli “open source”, ma perdendo ogni traccia di differenziazione.
Amazon, Microsoft e Alphabet-Google, che nell’ordine dominano il cloud computing su scala internazionale, potrebbero ragionevolmente decidere di ricalibrare – rispetto a un mercato con caratteristiche diverse – i loro investimenti in infrastrutture per l’AI: in questo modo riducendo soprattutto gli acquisti di chip avanzati da Nvidia, che diventerebbe (a meno di cambiamenti nel portafoglio di business) l’impresa destinata a subire le maggiori perdite. E non a caso è quella che mentre scrivo sta subendo il contraccolpo maggiore (“Nvidia leads sell-off in Big Tech stocks at Wall Street open”, FT, lunedì 27).
Le prospettive infine per l’operazione StarGate e per SoftBank. È una operazione che a mio avviso già prima era di dubbia profittabilità – in assenza di contributi pubblici – e la ritengo tale ancor più oggi.
E l’Europa?
Non sono certo l’unico a pensare che per l’Europa si apra l’opportunità di rientrare in gioco. Purché si muova in fretta e riducendo le “regole” a quelle strettissimamente necessarie.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link