Anthropic, il valore raddoppia in sei mesi ma lascia il capo della sicurezza

Anthropic sfida ChatGPT

Anthropic sfida ChatGPT | Pixabay @Olemedia - alanews

Redazione

21 Febbraio 2026

Dopo un maxi-round di finanziamenti e una valutazione record, la startup AI Anthropic affronta dimissioni eccellenti e crescenti pressioni etiche nel confronto globale con OpenAI

 

San Francisco, 21 febbraio 2026 – Nel panorama in continua evoluzione dell’intelligenza artificiale, Anthropic conferma la sua posizione di rilievo con una crescita straordinaria, ma affronta anche sfide interne significative. Dopo una campagna pubblicitaria controversa contro OpenAI, la startup ha recentemente annunciato un nuovo, sostanzioso round di finanziamenti da 30 miliardi di dollari, che ha portato la valutazione complessiva dell’azienda a 380 miliardi, raddoppiando in appena sei mesi.

Anthropic, crescita record e investimenti di alto profilo

Il recente aumento di capitale sottolinea la forte fiducia degli investitori nell’approccio di Anthropic, che si distingue per la sua strategia incentrata sulla creazione di guardrail rigorosi per l’intelligenza artificiale. Tra i principali finanziatori figurano fondi sovrani come Gic di Singapore, il qatariota Qia e il fondo emiratino Mgx, noto per aver partecipato all’acquisizione del ramo statunitense di TikTok insieme a Oracle e Silver Lake. Inoltre, confermano la loro presenza anche i giganti tecnologici Microsoft e Nvidia, che già a fine 2025 avevano annunciato un investimento complessivo di circa 15 miliardi di dollari.

Mentre l’azienda si avvicina a un possibile debutto in borsa entro i prossimi 12-18 mesi, si inserisce in un gruppo esclusivo insieme a OpenAI e SpaceX, entrambe protagoniste nel settore dell’intelligenza artificiale e pronte a entrare nei mercati pubblici.

La crisi interna: l’addio del capo della sicurezza AI

Nonostante il successo finanziario, Anthropic si trova a fare i conti con una significativa perdita. Il 9 febbraio ha lasciato il suo incarico Mrinank Sharma, ex capo della ricerca sulla sicurezza dell’AI e ricercatore con un dottorato in machine learning conseguito a Oxford. Nella sua lettera di dimissioni, Sharma ha espresso preoccupazioni profonde: “Il mondo è in pericolo, non solo per le intelligenze artificiali o le armi biologiche, ma per una serie di crisi interconnesse“. Ha inoltre sottolineato la difficoltà di tradurre i valori etici in azioni concrete all’interno della stessa organizzazione, citando la pressione costante a ignorare ciò che conta di più.

La sua uscita rappresenta un segnale importante, soprattutto considerando che Anthropic si presenta come una società di pubblica utilità impegnata a garantire benefici e mitigare rischi dell’AI.

Tensioni nel settore: anche OpenAI perde una figura chiave

Il malessere legato alla gestione etica dell’intelligenza artificiale non è esclusivo di Anthropic. Anche OpenAI ha visto recentemente la partenza di Zoë Hitzig, ricercatrice che ha guidato le politiche di sicurezza prima della definizione degli standard ufficiali. Hitzig ha motivato il suo abbandono con le riserve sulla strategia di OpenAI, in particolare riguardo all’introduzione di pubblicità su ChatGPT. Pur riconoscendo la necessità economica di questa scelta, ha denunciato il rischio di manipolazione derivante dall’uso massiccio di dati personali sensibili raccolti dal chatbot, che spaziano da paure mediche a convinzioni religiose.

Questi sviluppi mettono in luce le tensioni tra crescita commerciale e responsabilità etica nel settore dell’intelligenza artificiale, un equilibrio ancora difficile da raggiungere per le aziende protagoniste della rivoluzione tecnologica.

Change privacy settings
×