Il debutto di DeepSeek R1 scuote l’industria AI: modello open, eseguibile in locale e già comparabile con i giganti americani.
In pochi giorni, una startup cinese ha sparigliato le carte nel campo dell’intelligenza artificiale, aprendo scenari nuovi per privacy, costo e trasparenza.
Nel 2025, l’IA generativa continua a essere il terreno di confronto tra superpotenze, startup coraggiose e colossi tecnologici. L’arrivo improvviso di DeepSeek R1, modello sviluppato da una startup cinese semi-sconosciuta, ha colpito al cuore le certezze dell’industria, suscitando reazioni forti nei mercati e confronti serrati con modelli come ChatGPT o Claude.
Un po’ come avvenne con ChatGPT nel 2022, anche R1 è stato accolto con una miscela di stupore, hype e scetticismo. Ma stavolta il punto di rottura non è solo la qualità tecnica. A fare notizia è soprattutto la natura open-source, l’eseguibilità in locale, i costi irrisori e, soprattutto, la possibilità di decentralizzare l’intelligenza artificiale.
Cos’è DeepSeek R1 e perché sta facendo tremare i colossi dell’AI
Il progetto DeepSeek ruota attorno a due modelli principali: R3, pensato per interazioni rapide in stile GPT-4o, e R1, costruito per simulare il ragionamento con la tecnica del chain of thought, simile a GPT-3.5-turbo o Claude 1.0. Entrambi sono accessibili da browser, ma R1 può essere scaricato ed eseguito localmente, ad esempio con Ollama, senza necessità di connessioni cloud.
Il confronto con ChatGPT ha mostrato risultati misti: buone performance nella comprensione e nell’italiano, ma instabilità nei task più complessi. Nei test pubblici, ad esempio, DeepSeek ha faticato a decifrare un messaggio crittografato che GPT-o1 ha invece risolto al primo colpo. Tuttavia, i successivi tentativi hanno mostrato miglioramenti significativi, segno che il modello è già vicino alla maturità.

Il vero punto di forza, però, è l’accessibilità: i costi per l’uso via API partono da appena $0,14 per milione di token, rendendolo più economico di ChatGPT e più flessibile per startup e progetti tecnici.
L’origine di DeepSeek è legata a un effetto collaterale non previsto del bando americano sulle GPU verso la Cina. Privati delle nVidia H100, i ricercatori cinesi si sono adattati usando le H800, meno potenti ma sufficienti per progettare un’architettura più efficiente e ottimizzata.
In parallelo, mentre gli Stati Uniti puntano su grandi modelli chiusi, la Cina rilancia su modelli open-source e locali. E qui emergono tensioni: censura su argomenti sensibili, mancanza di garanzie sulla privacy e termini d’uso ambiguihanno già portato l’autorità italiana per la privacy a chiedere chiarimenti ufficiali su DeepSeek, minacciando il blocco del servizio.
Eppure, in ambito tecnico, la possibilità di usare un LLM direttamente su un server privato o un dispositivo localerappresenta un cambio radicale. La trasparenza del codice e il rilascio dei dettagli di addestramento hanno conquistato ricercatori e sviluppatori, in contrasto con il riserbo di OpenAI e Anthropic.
Privacy, costo, decentralizzazione: DeepSeek cambia le regole del gioco
Uno dei motivi per cui DeepSeek R1 ha fatto notizia non è la perfezione del modello, ma il rapporto tra costi e prestazioni. Con una spesa dichiarata tra i 5 e i 6 milioni di dollari, gli sviluppatori hanno creato un sistema in grado di avvicinarsi ai big, dimostrando che non servono decine di miliardi per produrre intelligenza artificiale competitiva.
Questo ha alimentato dubbi sulle valutazioni miliardarie di aziende come OpenAI o Anthropic. Alcuni investitori hanno iniziato a chiedersi se la “magia” dei grandi LLM americani sia davvero così irraggiungibile o semplicemente ben confezionata.
Nel frattempo, Microsoft ha annunciato ChatGPT Gov, una versione pensata per i server governativi su Azure, aprendo per la prima volta alla possibilità di installare i modelli privatamente, segno che la pressione competitiva è reale.
DeepSeek, in questo contesto, apre nuovi scenari anche per l’Europa: modelli open, installabili localmente, gestibili in modo etico e trasparente. La francese Mistral AI e iniziative pubbliche come OpenGPT-X potrebbero cogliere l’occasione per rientrare nella sfida, oggi dominata da Stati Uniti e Cina.
Come si può utilizzare DeepSeek: le sei modalità già disponibili
Ad oggi, DeepSeek può essere utilizzato in sei modalità principali, rendendolo adatto a sviluppatori, aziende e appassionati:
Via browser, accedendo al sito ufficiale
Da mobile, tramite app (non più disponibile in Italia dal 29 gennaio)
In locale, installandolo con strumenti come Ollama su Linux o macOS
Tramite API, con documentazione completa per integrazioni su misura
Su cloud, integrandolo in servizi come Azure
Con Python, per un controllo avanzato e programmazione personalizzata
Avere la libertà di scegliere dove e come eseguire un modello è un cambio di paradigma, specialmente per aziende che devono rispettare vincoli legali sulla localizzazione dei dati o che vogliono preservare la proprietà intellettuale.