Milano, 11 dicembre 2025 – Sam Altman, amministratore delegato di OpenAI, ha espresso profonde preoccupazioni riguardo alla rapidità con cui l’intelligenza artificiale (IA) sta trasformando la società. Intervenuto nel noto programma televisivo The Tonight Show di Jimmy Fallon, Altman ha sottolineato come la tecnologia, in soli tre anni, abbia raggiunto un’adozione senza precedenti, cambiando radicalmente il mondo in tempi molto brevi.
La velocità dell’adozione dell’Intelligenza artificiale
Altman ha evidenziato che, nonostante il potenziale dell’Intelligenza artificiale nel risolvere problemi complessi, come quelli medici, la rapidità con cui è stata integrata nella vita quotidiana “preoccupa”. “Questa tecnologia ha solo tre anni. Nessun’altra ha avuto un successo così rapido”, ha dichiarato l’AD, mettendo in guardia sul fatto che la società potrebbe non avere il tempo necessario per adattarsi o per definire normative adeguate. Questo scenario apre la porta a possibili usi impropri da parte di attori malintenzionati, con conseguenze ancora difficili da prevedere.
Altman auspica che, nel prossimo anno, i modelli di Intelligenza artificiale possano iniziare a fare piccole ma importanti scoperte scientifiche, mentre entro cinque anni potrebbero contribuire a guarire malattie. Tuttavia, ribadisce che “dobbiamo presentare questa cosa al mondo in modo responsabile”, sottolineando la necessità di un approccio etico e regolamentato.
Una corsa frenetica tra innovazione e sostenibilità etico-giuridica
Le parole di Altman arrivano in un contesto segnato da tensioni ai vertici dell’industria dell’IA. Dopo il recente “codice rosso” interno a OpenAI per migliorare ChatGPT, e il precedente “codice arancione” dovuto a critiche sul modello, si aggiungono le riflessioni di esperti e regolatori sulla sostenibilità etica e giuridica dell’intelligenza artificiale.
Secondo l’esperto Guido Scorza, componente del Garante per la protezione dei dati personali, l’attuale fase di sviluppo dell’Intelligenza artificiale è caratterizzata da una corsa che potrebbe mettere a rischio “diritti e libertà di miliardi di persone”. La mancanza di unanimità tra i leader del settore su cosa sia “fair use” e trasparenza, come evidenziato dalla controversia che ha coinvolto Altman e altri manager di OpenAI, indica la necessità urgente di regole sovranazionali minime, temporanee e vincolanti per garantire la trasparenza e limitare sperimentazioni incontrollate.
Parallelamente, il dibattito sul “gap di fiducia nell’IA” si fa sempre più centrale, con rischi che vanno dalla disinformazione, ai bias, alla sicurezza, fino alla trasparenza degli algoritmi. Un ampio sforzo è richiesto per mitigare questi rischi e favorire un’adozione responsabile dell’IA, integrando sempre la supervisione umana come elemento imprescindibile nella gestione del rischio tecnologico.






