Milano, 23 gennaio 2026 – Anthropic, una delle principali aziende nel campo dell’intelligenza artificiale (IA), ha pubblicato una versione aggiornata del documento etico che regola il funzionamento del suo chatbot, Claude. Il nuovo testo, denominato “la nuova costituzione di Claude”, definisce con maggiore chiarezza e rigore i limiti e i valori a cui il modello deve attenersi, con un’attenzione particolare ai temi sensibili come salute, politica e interazioni con i minori.
Le nuove regole che Claude dovrà rispettare
Il documento aggiornato introduce ulteriori restrizioni sulle risposte che Claude può fornire in presenza di argomenti delicati, fra cui autolesionismo e suicidio. Anthropic sottolinea l’importanza di evitare che l’IA esprima opinioni personali su questioni politiche controverse, come l’aborto, o che possa generare contenuti discriminatori o pericolosi, inclusa la sintesi di sostanze chimiche pericolose o armi biologiche. Queste misure sono finalizzate a prevenire azioni inappropriate, pericolose o dannose e sono parte di un sistema di regole che va ben oltre un semplice elenco di divieti: la nuova Costituzione di Claude adotta infatti un approccio argomentativo e narrativo, volto a far comprendere all’IA il “perché” dietro le regole, favorendo un giudizio più flessibile e contestualizzato.
Trasparenza e responsabilità: un modello aperto
Una novità rilevante è la pubblicazione integrale del documento con licenza Creative Commons CC0, che ne consente il riutilizzo senza restrizioni. Questa scelta dimostra la volontà di Anthropic di promuovere la trasparenza e di stimolare un confronto aperto sull’allineamento etico dell’IA, segnando un passo importante nel settore. La Costituzione di Claude rappresenta infatti la guida principale per il comportamento del modello e stabilisce quattro pilastri fondamentali: sicurezza, etica, onestà e utilità per gli utenti.
L’attenzione di Anthropic alle linee guida in materia di sicurezza e ai limiti etici è stata messa in evidenza in concomitanza con la partecipazione del CEO Dario Amodei al World Economic Forum di Davos. Con questo aggiornamento, l’azienda ribadisce il proprio impegno a sviluppare IA responsabili, capaci di bilanciare efficacemente l’innovazione tecnologica con la tutela dei valori umani più delicati.





