La corsa all’hardware personalizzato accelera: OpenAI prepara chip interni per sostenere la crescita di GPT-5 e delle sue infrastrutture.
OpenAI compie una mossa cruciale nel suo percorso di espansione e autonomia. Secondo quanto riportato dal Financial Times, l’azienda fondata da Sam Altman ha avviato una partnership strategica con Broadcom per la produzione di massa di chip AI personalizzati, la cui realizzazione inizierà nel 2026.
L’obiettivo principale è ridurre la dipendenza da NVIDIA, attualmente dominatrice assoluta nel mercato delle GPU, e garantire la potenza di calcolo necessaria per supportare la domanda esplosiva dei suoi modelli linguistici, a partire dal nuovo GPT-5.
La portata dell’accordo è tutt’altro che trascurabile: Broadcom avrebbe già ricevuto un ordine da 10 miliardi di dollari da parte di un cliente anonimo, che fonti interne al Times riconducono proprio a OpenAI. La conferma ufficiale non è ancora arrivata, ma le dichiarazioni incrociate tra le due aziende e le recenti mosse sul mercato indicano una fase di sviluppo ormai avanzata.
Chip per uso interno: niente commercializzazione, solo potenziamento infrastrutturale
A differenza di altre aziende tech che puntano a produrre e vendere chip AI sul mercato, la strategia di OpenAI è chiara: i nuovi chip non saranno commercializzati, ma impiegati esclusivamente nei propri data center.
La necessità nasce dal fatto che, con l’evoluzione di GPT-5, la quantità di risorse computazionali richieste è raddoppiata nel giro di pochi mesi. Altman ha recentemente dichiarato l’intenzione di raddoppiare la capacità della flotta di server entro cinque mesi, dando priorità agli utenti a pagamento di ChatGPT e a progetti enterprise.

La creazione di XPU (chip AI personalizzati) consentirà all’azienda di evitare colli di bottiglia dovuti alla carenza globale di GPU e di ottenere un notevole risparmio sui costi operativi, soprattutto in un contesto in cui i prezzi delle unità NVIDIA continuano a lievitare.
Nel 2025, il settore è ancora fortemente sbilanciato a favore di NVIDIA, che ha registrato un incremento del 56% di fatturato rispetto all’anno precedente. Ma la decisione di OpenAI potrebbe rappresentare l’inizio di una diversificazione profonda nel settore dell’hardware AI.
Gli analisti: in arrivo una nuova ondata di chip proprietari tra le big dell’AI
Secondo diversi analisti tecnologici, la decisione di OpenAI è coerente con un trend emergente tra le grandi aziende del settore AI: abbandonare la dipendenza da fornitori esterni e sviluppare hardware progettato su misura per i propri modelli.
È la stessa strategia già adottata da Google con i TPU e da Amazon con Inferentia e Trainium, e ora anche OpenAI si muove in quella direzione, puntando su un approccio verticale che consenta di controllare completamente la catena del valore: modelli, server, chip e distribuzione.
Il progetto avviato con Broadcom non è un episodio isolato, ma una conferma della volontà di investire in soluzioni stabili e scalabili, in vista di una domanda globale di AI che, secondo le stime aggiornate di settembre 2025, crescerà del 36% entro la fine dell’anno.
La produzione dei chip, prevista per il 2026, dovrebbe inizialmente coprire il fabbisogno interno legato a ChatGPT, API commerciali e nuove piattaforme annunciate, tra cui una applicazione per la ricerca lavoro destinata a competere con LinkedIn.
Contesto in evoluzione: più controllo, più responsabilità
Mentre OpenAI si prepara a gestire in autonomia l’hardware che alimenta i suoi modelli, aumentano anche le aspettative e le responsabilità nei confronti del pubblico. Proprio in questi giorni, l’azienda ha introdotto nuovi controlli parentali per ChatGPT, a seguito di un tragico episodio di cronaca legato all’uso del chatbot da parte di un giovane utente.
La combinazione tra espansione tecnologica e sorveglianza etica diventerà centrale nei prossimi anni. OpenAI, da protagonista del settore, dovrà dimostrare di saper bilanciare crescita, sicurezza e trasparenza. La costruzione dei chip interni rappresenta un passo in avanti verso l’efficienza, ma anche un’assunzione diretta di responsabilità sulla scalabilità delle infrastrutture e sull’impatto sociale dei propri strumenti.