Solo due giorni fa, la startup cinese AI Deepseek ha lasciato cadere silenziosamente una bomba sulla faccia abbracciata: un modello di linguaggio di grandi dimensioni di 685 miliardi di parametri chiamato chiamato DeepSeek-V3-0324. Mentre alcune innovazioni arrivano con la fanfara, questa versione era diversa. Nessun briefing di stampa splashy. Nessun post sul blog lucido. Solo un enorme set di pesi modello, una licenza del MIT e alcuni sussurri tecnici che erano sufficienti per far sì che la comunità dell’IA.
Ora, mentre gli sviluppatori si affrettano a testarlo, il modello ha già sollevato campane di allarme per le principali aziende di intelligenza artificiale occidentale come Openai – non solo per la sua potenza grezza ed efficienza, ma per dove può essere eseguito: A Mac Studio M3 Ultra. Non avrebbe mai dovuto essere così semplice ospitare un modello di questa scala. Tuttavia, i primi rapporti suggeriscono che DeepSeek-V3-0324 è operativo, generando oltre 20 token al secondo su una singola macchina. Per molti addetti ai lavori di intelligenza artificiale, questa è sia una svolta allettante che una seria sveglia.
La maggior parte delle versioni di AI su larga scala seguono una sceneggiatura familiare: un annuncio teaser, un documento ufficiale e una spinta PR. DeepSeek, tuttavia, ha optato per il suo approccio “sotto il radar”, caricando tranquillamente 641 GB di dati sotto una licenza MIT. Il modello README vuoto potrebbe suggerire un ripensamento. In realtà, segnala una posizione deliberata e sicura di sé: “Ecco il nostro modello: fai quello che vuoi e buona fortuna superandolo.”
Questo modus operandi è in netto contrasto con il prodotto meticolosamente orchestrato nella Silicon Valley. I ricercatori di intelligenza artificiale di solito si aspettano una documentazione dettagliata, benchmark di prestazioni e demo luccicanti. La gambita di Deepseek, d’altra parte, dipende dalla disponibilità grezza e aperta. Vuoi sapere come funziona? Scaricalo e guarda tu stesso.
In esecuzione su una macchina “consumatore”?
Il Mac Studio M3 Ultra potrebbe non essere seduto nell’ufficio di tutti-è un dispositivo da $ 9.499 e decisamente di fascia alta. Anche così, il fatto che DeepSeek-V3-0324 possa funzionare localmente su questo hardware è notevole. Modelli contemporanei di dimensioni comparabili richiedono in genere cluster GPU molto più grandi che masticano il potere in data center dedicati. Questo cambiamento nei requisiti di elaborazione potrebbe annunciare una nuova era in cui l’intelligenza artificiale avanzata non è strettamente legata ai grandi server aziendali.
I primi test del ricercatore AI Awni Hannun confermano che a Quantizzato a 4 bit La versione di DeepSeek-V3 può superare i 20 token al secondo su questo sistema. Questa è una velocità vertiginosa per un modello di parametri multimi-miliardi. Parte del segreto si trova Architettura “Mixture of-Experts (MoE)” di Deepseekche attiva in modo intelligente solo una frazione dei suoi parametri totali per ogni compito. I critici una volta licenziarono Moe troppo specializzati; Il successo di DeepSeek suggerisce che potrebbe essere solo il percorso più efficiente per l’IA su vasta scala.
Salire uno standard del settore?
Più grande non è sempre migliore, ma DeepSeek-V3-0324 è entrambi: enorme nella portata e sorprendentemente agile. Un noto ricercatore, Xeophon, ha pubblicato i loro test iniziali indicando “un enorme salto in tutte le metriche” rispetto alla versione precedente di DeepSeek. L’affermazione che ha detronizzato Claude Sonnet 3.5 Di antropico – fino a poco tempo fa considerato un sistema commerciale d’élite – sta girando la testa. Se verificato, DeepSeek potrebbe stare vicino alla cima della modellazione della lingua AI.
La differenza nei modelli di distribuzione è altrettanto degna di nota. Claude Sonnet, come molti sistemi occidentali, richiede generalmente un abbonamento a pagamento per le sue migliori offerte. Al contrario, la nuovissima uscita 0324 di Deepseek è scaricare gratuitamente in termini MIT. Gli sviluppatori di tutto il mondo possono sperimentare senza consegnare carte di credito o correre in limiti di utilizzo, un approccio nettamente diverso che evidenzia il centro di gravità mutevole nell’intelligenza artificiale.
La magia dietro la svolta di Deepseek
Oltre alla sua architettura MOE, DeepSeek-V3-0324 incorpora due principali salti tecnici:
- Attenzione latente multi-testa (MLA): Questa tecnologia rafforza la capacità del modello di seguire un lungo contesto, rendendo molto meno incline a far cadere parti precedenti di una conversazione o di un testo.
- Previsione multi-teking (MTP): Mentre la maggior parte dei modelli di intelligenza artificiale genera un token di testo alla volta, MTP di Deepseek gli consente di produrre più token in ogni iterazione, accelerando l’output di quasi l’80%.
In termini pratici, queste ottimizzazioni tagliano il tempo necessario per elaborare o generare testo. Poiché DeepSeek non coinvolge tutti i 685 miliardi di parametri per ogni richiesta, può essere più efficiente dei modelli più piccoli ma completamente attivati. Simon Willison, una figura rispettata negli strumenti per sviluppatori, ha riferito che a Versione a 4 bit di DeepSeek-V3-0324 immersi in giro 352 GB. Questa dimensione più piccola lo rende relativamente fattibile per le workstation specializzate e alcuni sistemi personali di fascia alta.
Open Source: il grande differenziatore
Il successo di Deepseek non può essere divorziato dalla conversazione più grande in circolazione Compagnie di intelligenza artificiale cinese Abbracciare licenze open source. Mentre i pilastri del settore come Openai e Antropic mantengono le redini proprietarie sui loro modelli, aziende come Baidu, Alibaba e Tencent si sono unite a DeepSeek nel rilasciare modelli avanzati in termini permissivi. Il risultato è un ecosistema di intelligenza artificiale definito da progressi condivisi piuttosto che tecnologia custodita e murata.
Questa strategia si prepara con la ricerca della Cina per la leadership dell’intelligenza artificiale. Le restrizioni hardware e l’accesso limitato agli ultimi chip Nvidia hanno costretto queste aziende a innovare. Il risultato? Modelli come DeepSeek-V3-0324 sono progettati per eccellere anche senza cluster GPU di alto livello. Ora che questi modelli efficienti sono liberamente circolanti, gli sviluppatori in tutto il mondo stanno cogliendo l’opportunità di costruire a una frazione del solito costo.
DeepSeek-R2
DeepSeek sembra funzionare in fasi: svela un modello di base, quindi segue una versione di “ragionamento”. I voci DeepSeek-R2 potrebbe debuttare nel prossimo mese o due, facendo eco al modello stabilito dalla versione di dicembre di V3, seguito da un modello R1 specializzato nella risoluzione dei problemi più avanzati.
Se R2 dovesse superare il tanto atteso GPT-5 di Openai, inclinerà ulteriormente le scale verso il futuro dominio dell’IA open source. Molti veterani del settore presumevano che solo grandi giocatori ricchi di risorse potessero gestire la complessità in mongolfiera dei modelli di alto livello. Il silenzioso successo di Deepseek sfida quell’assunzione. E poiché i modelli di ragionamento in genere consumano significativamente più calcolati di quelli standard, i miglioramenti in R2 metteno in luce l’approccio radicale di efficienza di DeepSeek.
Come testare la guida di DeepSeek-V3-0324
Scaricare l’intero 641 GB Il set di dati di abbraccio faccia non è un’impresa banale. Ma per molti sviluppatori, il percorso più semplice è attraverso fornitori di inferenze di terze parti come laboratori iperbolici o openrouter. Queste piattaforme ti consentono di attingere a DeepSeek-V3-0324 senza bisogno del tuo data center. Entrambi hanno promesso aggiornamenti quasi istantanei ogni volta che DeepSeek spinge i cambiamenti.
Nel frattempo, chat.deepseek.com Probabilmente funziona già sulla nuova versione, anche se l’avvio non l’ha confermata esplicitamente. I primi utenti riportano risposte più rapide e una migliore precisione, sebbene a costo di un calore conversazionale. Se sei uno sviluppatore che ha bisogno di output più formali e tecnici, questo cambiamento di stile è probabilmente un vantaggio. Ma gli utenti casuali che desiderano una chat bot più amichevoli e più “umani” potrebbero notare un tono più freddo.
Una persona in evoluzione
È interessante notare che molti tester hanno commentato la nuova voce del modello. Precedenti versioni di Deepseek erano note per il loro stile sorprendentemente accessibile. L’iterazione aggiornata 0324 tende verso un modo serio e preciso. Reclami per le risposte “robotiche” o “eccessivamente intellettuali” stanno spuntando nei forum online, suggerendo che DeepSeek si è defep per un ambiente più professionale piuttosto che chiacchiere.
Se questo stile rende il modello più o meno coinvolgente dipende fortemente dall’uso. Per la codifica o la ricerca scientifica, la chiarezza delle sue risposte potrebbe essere un vantaggio. Nel frattempo, il pubblico generale potrebbe trovare le interazioni più rigide del previsto. Indipendentemente da ciò, questo turno di personalità intenzionale segnala come i migliori giocatori di intelligenza artificiale stanno accuratamente sintonizzando i loro modelli per specifici segmenti di mercato.
Il rilascio di DeepSeek costringe una domanda più grande su come dovrebbe essere condivisa l’intelligenza artificiale avanzata. Open source Invita intrinsecamente un’ampia collaborazione e una rapida iterazione. Danendo il modello completo, DeepEek cede un certo controllo, ma guadagna un esercito di ricercatori, hobbisti e startup che contribuiscono tutti al suo ecosistema.
Per noi rivali, che mantengono principalmente la loro tecnologia al guinzaglio, l’approccio di Deepseek aumenta un dilemma strategico. Rispecisce il modo in cui il modello aperto di Android alla fine ha superato altri sistemi operativi che hanno cercato di mantenere tutto bloccato. Se Deepseek o altre imprese di intelligenza artificiale cinesi riescono a replicare quel fenomeno nello spazio AI, potremmo vedere la stessa inarrestabile ondata di adozione globale.
Soprattutto, il modello aperto garantisce l’intelligenza artificiale avanzata non è solo il dominio dei titani del settore. Con l’hardware giusto, una vasta gamma di organizzazioni può ora distribuire capacità all’avanguardia. Questo, più di ogni altra cosa, è ciò che mantiene gli amministratori delegati delle aziende di AI occidentali di notte.
Il fatto che DeepSeek-V3-0324 Può funzionare in modo affidabile su un’unica workstation ben attrezzata ribalta lo standard pensando alle esigenze di infrastrutture. Secondo le dichiarazioni di Nvidia, i modelli di ragionamento avanzato richiedono un potere immenso e sono spesso limitati a data center specializzati. Il controesempio di Deepseek suggerisce che, una volta compresso e ottimizzato, l’intelligenza artificiale di prossima generazione potrebbe scivolare in ambienti sorprendentemente modesti.
E se si diceva DeepSeek-R2 Matches o supera gli equivalenti occidentali, è possibile assistere a una rivoluzione del ragionamento open source. Quello che una volta era il dominio esclusivo delle aziende di grandi budget potrebbe diventare una risorsa standard disponibile per startup, ricercatori indipendenti e sviluppatori di tutti i giorni.
Credito immagine in primo piano: Solen Feyissa/Unsplash