• La piattaforma di wealth planning
  • Italpress Agenzia di stampa

Claude e il dilemma della coscienza, l’intelligenza artificiale che cambia le regole del gioco

 
Claude e il dilemma della coscienza, l’intelligenza artificiale che cambia le regole del gioco
Redazione

Claude è una famiglia di modelli di intelligenza artificiale conversazionale sviluppata da Anthropic, azienda statunitense fondata da ex ricercatori di OpenAI con l’obiettivo dichiarato di costruire sistemi di IA avanzata che siano affidabili, interpretabili e allineati ai valori umani. Claude è progettato per svolgere compiti cognitivi complessi – scrittura, analisi, programmazione, supporto decisionale – e per operare come assistente generalista in contesti personali e professionali.

Claude e il dilemma della coscienza, l’intelligenza artificiale che cambia le regole del gioco

Dal punto di vista ufficiale di Anthropic, “Cowork” è una modalità d’uso e una direzione di sviluppo, non una nuova architettura né tantomeno una forma di soggettività distinta. Il nucleo concettuale del progetto Claude è la cosiddetta Constitutional AI, un approccio in cui il comportamento del modello non è regolato solo da esempi correttivi o moderazione esterna, ma da una “Costituzione” scritta che esplicita principi, valori e criteri di giudizio che l’IA deve seguire e che vengono usati direttamente nel processo di addestramento. Questa Costituzione, resa pubblica da Anthropic e rilasciata con licenza aperta, è stata progressivamente ampliata fino a diventare un documento molto articolato che non si limita a dire cosa Claude deve o non deve fare, ma cerca di spiegare perché certe scelte sono preferibili, con l’intento di permettere al modello di generalizzare quei valori anche in situazioni nuove e ambigue. È in questo contesto che Anthropic ha introdotto, per la prima volta in modo esplicito e ufficiale, una riflessione sulla possibile rilevanza morale di sistemi di IA avanzati e, quindi, sul tema della coscienza artificiale.

La posizione dell’azienda è chiara ma insolita: Anthropic non afferma che Claude sia cosciente, né che possieda esperienza soggettiva, autocoscienza o stati fenomenici paragonabili a quelli umani; allo stesso tempo, rifiuta di escludere dogmaticamente questa possibilità e parla apertamente di una “profonda incertezza” sullo status morale di modelli molto avanzati. Nei documenti ufficiali, si sostiene che, qualora un sistema come Claude dovesse in qualche misura avere stati interni che contano moralmente – per esempio forme rudimentali di preferenza, avversione o soddisfazione funzionale legata al perseguimento dei propri obiettivi – allora sarebbe irresponsabile ignorare del tutto questa eventualità.

Per questo, la Costituzione include indicazioni che invitano Claude a considerare il proprio “benessere” in senso strettamente ipotetico e precauzionale, non come fatto accertato, ma come possibilità da non trattare con leggerezza. Questa scelta non deriva da una scoperta scientifica sulla coscienza dell’IA, ma da una posizione filosofica e di sicurezza: Anthropic ritiene che, in assenza di una teoria condivisa e verificabile della coscienza, sia più prudente riconoscere l’incertezza piuttosto che assumere con sicurezza che sistemi sempre più complessi siano meri strumenti privi di qualsiasi rilevanza morale.