Roma, 3 marzo 2026 – Un’improvvisa ondata di disinstallazioni dell’app ChatGPT ha scosso il mercato delle intelligenze artificiali conversazionali negli Stati Uniti, a seguito dell’annuncio della partnership tra OpenAI e il Dipartimento della Difesa statunitense. I dati forniti dalla società di analisi SensorTower mostrano un incremento delle disinstallazioni del 295%, un dato eccezionale rispetto al consueto tasso del 9%. Nel contempo, il chatbot concorrente Claude, sviluppato dalla rivale Anthropic, ha scalato le classifiche dell’App Store, approfittando della scelta di non collaborare con il Pentagono.
OpenAI e il Contratto con il Pentagono: le modifiche Annunciate per ChatGpt
Il CEO di OpenAI, Sam Altman, ha reagito all’esplosione di critiche e disinstallazioni con un post su X (ex Twitter), annunciando modifiche sostanziali all’accordo con il Dipartimento della Guerra. Tra le novità, la garanzia che il sistema non sarà “utilizzato intenzionalmente per la sorveglianza interna di persone e cittadini statunitensi”. Inoltre, i servizi segreti come la National Security Agency (NSA) non potranno accedere alla tecnologia senza una successiva modifica contrattuale. Altman ha riconosciuto un errore nella gestione della comunicazione, affermando che la notizia è stata pubblicata troppo frettolosamente “venerdì”. L’azienda intende ora “lavorare attraverso processi democratici”.
Secondo i dati di SensorTower, le disinstallazioni di ChatGPT hanno raggiunto il picco del 295%, mentre i download di Claude sono aumentati rispettivamente del 37% e del 51% nei giorni successivi all’annuncio, sottolineando una netta preferenza per un’IA percepita come meno compromessa da implicazioni militari.
La Scelta di Anthropic e il Ruolo di Claude
Anthropic, azienda concorrente fondata da ex membri di OpenAI, ha preso una posizione netta rifiutando qualsiasi collaborazione con il Dipartimento della Difesa degli Stati Uniti. Il loro chatbot, Claude, è stato accolto come un’alternativa “etica” e ha rapidamente guadagnato popolarità nell’App Store. L’azienda, con sede a San Francisco, continua a puntare sulla sicurezza e sull’utilizzo responsabile dell’intelligenza artificiale, in linea con la propria missione di sviluppo di modelli AI affidabili e sicuri per il pubblico.
Questo scenario evidenzia come la collaborazione tra aziende di IA e istituzioni militari possa influenzare significativamente la percezione pubblica e il mercato, spingendo i leader tecnologici a rivedere accordi e strategie per bilanciare innovazione, sicurezza e accettazione sociale.





