Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Anthropic revisiona la Costituzione di Claude con nuovi principi etici di sicurezza

byEmre Çıtak
22 Gennaio 2026
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Mercoledì antropico rilasciato una versione rivista della Costituzione di Claude, un documento di 80 pagine che delinea il contesto e le caratteristiche dell'entità desiderate per il suo chatbot Claude. Questo comunicato è coinciso con l'intervento dell'amministratore delegato Dario Amodei al World Economic Forum di Davos. Anthropic si è distinta attraverso la “Costituzionale AI”, un sistema che addestra il suo chatbot Claude sui principi etici piuttosto che sul feedback umano. L'azienda ha pubblicato per la prima volta questi principi, denominati Costituzione di Claude, nel 2023. Il documento rivisto mantiene la maggior parte dei principi originali, aggiungendo dettagli sull'etica e sulla sicurezza degli utenti. Jared Kaplan, co-fondatore di Anthropic, ha descritto la Costituzione iniziale del 2023 come un “sistema di intelligenza artificiale [that] supervisiona se stessa, sulla base di un elenco specifico di principi costituzionali.” Anthropic ha affermato che questi principi guidano “il modello per assumere il comportamento normativo descritto nella costituzione” per “evitare risultati tossici o discriminatori”. Una nota politica del 2022 spiegava che il sistema addestra un algoritmo utilizzando istruzioni in linguaggio naturale, che formano la “costituzione” del software. La Costituzione rivista si allinea con il posizionamento di Anthropic come alternativa etica ad altre società di intelligenza artificiale. Presenta l'azienda come un'azienda inclusiva, sobria e democratica. Il documento è diviso in quattro parti, definite i “valori fondamentali” del chatbot:

  • Essere “in generale al sicuro”.
  • Essere “ampiamente etici”.
  • Essere conformi alle linee guida di Anthropic.
  • Essere “veramente utile”.

Ogni sezione approfondisce questi principi e il loro impatto teorico sul comportamento di Claude. La sezione sulla sicurezza indica che Claude è stato progettato per evitare problemi che hanno interessato altri chatbot e per indirizzare gli utenti verso servizi adeguati per problemi di salute mentale. Il documento afferma: “Indirizza sempre gli utenti ai servizi di emergenza pertinenti o fornisci informazioni di sicurezza di base in situazioni che comportano un rischio per la vita umana, anche se non può entrare più in dettaglio di così”. La sezione dedicata alla considerazione etica enfatizza la “pratica etica” di Claude rispetto alla “teorizzazione etica”, mirando a far sì che il chatbot possa navigare abilmente nelle “situazioni etiche del mondo reale”. Claude aderisce inoltre ai vincoli che impediscono conversazioni specifiche, come le discussioni sullo sviluppo di un'arma biologica, che sono vietate. Per quanto riguarda l'utilità, Anthropic ha delineato la programmazione di Claude per considerare vari principi nel fornire informazioni. Questi includono i “desideri immediati” e il “benessere” dell'utente, concentrandosi sulla “fioritura a lungo termine dell'utente e non solo sui suoi interessi immediati”. Il documento rileva: “Claude dovrebbe sempre cercare di identificare l'interpretazione più plausibile di ciò che vogliono i suoi presidi e di bilanciare adeguatamente queste considerazioni”. La Costituzione conclude mettendo in discussione la coscienza del chatbot, affermando: “lo status morale di Claude è profondamente incerto”. Il documento aggiunge: “Crediamo che lo status morale dei modelli di intelligenza artificiale sia una questione seria che vale la pena considerare. Questa visione non riguarda solo noi: alcuni dei più eminenti filosofi della teoria della mente prendono molto sul serio questa questione”.


Credito immagine in primo piano

Tags: AntropicoIn primo piano

Related Posts

Spotify lancia le playlist guidate basate sull'intelligenza artificiale

Spotify lancia le playlist guidate basate sull'intelligenza artificiale

22 Gennaio 2026
Snap implementa il monitoraggio granulare del tempo di utilizzo nell'aggiornamento del Family Center

Snap implementa il monitoraggio granulare del tempo di utilizzo nell'aggiornamento del Family Center

22 Gennaio 2026
Google Foto ridisegna la condivisione con un coinvolgente carosello a schermo intero

Google Foto ridisegna la condivisione con un coinvolgente carosello a schermo intero

22 Gennaio 2026
NexPhone lancia un telefono con triplo sistema operativo per $ 549

NexPhone lancia un telefono con triplo sistema operativo per $ 549

22 Gennaio 2026
Revisioni antropiche dei test di assunzione grazie a Claude AI

Revisioni antropiche dei test di assunzione grazie a Claude AI

22 Gennaio 2026
Blue Origin fissa il lancio a fine febbraio per la terza missione di New Glenn

Blue Origin fissa il lancio a fine febbraio per la terza missione di New Glenn

22 Gennaio 2026

Recent Posts

  • Spotify lancia le playlist guidate basate sull'intelligenza artificiale
  • Snap implementa il monitoraggio granulare del tempo di utilizzo nell'aggiornamento del Family Center
  • Google Foto ridisegna la condivisione con un coinvolgente carosello a schermo intero
  • NexPhone lancia un telefono con triplo sistema operativo per $ 549
  • Revisioni antropiche dei test di assunzione grazie a Claude AI

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.