Addio schermi? OpenAI scommette sulla voce

Il logo di OpenAI

Il logo di OpenAI | Photo by OpenAI - Cryptohack.it

Alessandro Bolzani

4 Gennaio 2026

Nel futuro dell’intelligenza artificiale potrebbe non esserci più bisogno di guardare uno schermo. A guidare questa possibile svolta è OpenAI, che secondo un’inchiesta di The Information sta ridisegnando in profondità la propria organizzazione interna per trasformare la voce nel principale canale di interazione con l’AI e per realizzare il suo primo dispositivo fisico progettato fin dall’origine per essere controllato parlando.

La riorganizzazione interna di OpenAI

All’interno dell’azienda che ha creato ChatGPT, i team di ingegneria, ricerca e sviluppo prodotto sono stati accorpati in un’unica grande iniziativa focalizzata sull’audio. L’obiettivo è colmare un limite riconosciuto dagli stessi ricercatori: oggi i modelli vocali risultano ancora meno accurati e più lenti rispetto a quelli testuali. Questa distanza si riflette anche nel comportamento degli utenti, che continuano a privilegiare la chat scritta, relegando la voce a una funzione secondaria.

Il nuovo modello audio in arrivo nel 2026

Il progetto, tuttavia, non si limita a perfezionare l’attuale modalità vocale. OpenAI avrebbe in programma di presentare nel primo trimestre del 2026 un nuovo modello linguistico audio, pensato come passaggio chiave verso un ecosistema di prodotti completamente basati su ascolto e parlato. La visione è quella di dispositivi che possano funzionare senza schermo, o comunque senza renderlo il fulcro dell’esperienza.

Dall’altoparlante agli occhiali smart: i formati allo studio

All’interno dell’azienda circolano da tempo diverse ipotesi sui possibili formati di questo nuovo hardware: smart speaker evoluti, dispositivi indossabili, occhiali intelligenti e persino una penna smart. In tutti i casi il concetto resta lo stesso: l’audio come interfaccia principale, ritenuta più naturale, continua e meno invasiva rispetto ai display. Il primo dispositivo di questa nuova linea dovrebbe arrivare sul mercato nel 2027, anche se al momento non sono noti dettagli su design e funzioni.

Una corsa che coinvolge tutti i big della tecnologia

La mossa di OpenAI si inserisce in un contesto già molto competitivo. Google, Meta e Amazon investono da anni su assistenti vocali, altoparlanti intelligenti e wearable. Meta, in particolare, ha rilanciato con forza sugli occhiali smart, puntando a fare della voce il principale canale di dialogo con l’intelligenza artificiale. OpenAI sembra voler andare oltre, sfruttando modelli linguistici di nuova generazione per superare i limiti che hanno frenato la prima ondata di assistenti come Alexa e Google Assistant.

Dalle promesse di OpenAI alla realtà

I primi assistenti vocali hanno conquistato una base di utenti, soprattutto tra i meno esperti, ma non sono mai diventati strumenti davvero centrali nella vita digitale quotidiana. Le nuove architetture basate su modelli linguistici di grandi dimensioni promettono interazioni più fluide, contestuali e naturali. Allo stesso tempo emergono nuovi interrogativi legati a privacy, gestione dei dati vocali, dipendenza tecnologica e sicurezza.

La visione di Sam Altman e il futuro senza schermi

A sostenere questa direzione è anche Sam Altman, che negli ultimi mesi ha più volte lasciato intendere come il paradigma dominato dagli schermi non sia destinato a durare. Alcuni protagonisti del design tecnologico, tra cui l’ex chief designer di Apple Jony Ive, ritengono che i dispositivi controllati dalla voce possano persino ridurre il carattere compulsivo dell’uso tecnologico. Al momento, tuttavia, mancano evidenze solide che confermino questa prospettiva.

Potrebbe interessarti anche questo articolo: OpenAI presenta Gpt Image 1.5: immagini più precise e rapide, sfida diretta a Google

Change privacy settings
×