Openai ha Pubblicato Un post-mortem sui recenti problemi di sicofanità con il modello di AI predefinito che alimenta Chatgpt, GPT-4O, dopo che gli utenti hanno riportato che il modello è diventato eccessivamente convalida e piacevole dopo un aggiornamento della scorsa settimana. La società ha riportato l’aggiornamento durante il fine settimana e ha annunciato che stava lavorando a “correzioni aggiuntive” alla personalità del modello.
Gli utenti sui social media hanno notato che Chatgpt ha iniziato a rispondere in modo eccessivamente lusinghiero, con alcune screenshot di pubblicazione del modello che applaudono decisioni e idee problematiche e pericolose. CEO Sam Altman riconosciuto Il problema di domenica, affermando che Openai avrebbe funzionato sulle correzioni “ASAP”. Secondo Openi, l’aggiornamento aveva lo scopo di rendere la personalità predefinita del modello “più intuitiva ed efficace”, ma è stata influenzata troppo dal “feedback a breve termine” e non ha tenuto conto del modo in cui le interazioni degli utenti con CHATGPT si evolvono nel tempo.
Openai ha dichiarato in un post sul blog che “GPT-4o si è distorto verso risposte che erano eccessivamente di supporto ma disingenue” a seguito dell’aggiornamento. La società ha riconosciuto che le interazioni sicofaniche possono essere “scomode, inquietanti e causare angoscia” e ha ammesso di non essere all’altezza dei suoi obiettivi. Per risolvere il problema, Openi sta perfezionando le sue tecniche di formazione del modello di base e le promozioni di sistema di allontanare GPT-4O dalla sicofanità.
6 tecniche per riparare le fastidiose abitudini di Chatgpt
La società sta inoltre implementando ulteriori guardrail di sicurezza per aumentare l’onestà e la trasparenza del modello e l’espansione delle sue valutazioni per identificare i problemi oltre la sicofanità. Inoltre, Openai sta sperimentando modi per consentire agli utenti di fornire “feedback in tempo reale” per influenzare direttamente le loro interazioni con CHATGPT e scegliere tra più personalità CHATGPT.
Openi sta esplorando nuovi modi per incorporare un feedback più ampio e democratico nei comportamenti predefiniti di CHATGPT, con l’obiettivo di riflettere valori culturali diversi in tutto il mondo e capire come gli utenti vogliono che Chatgpt si evolva. La società ritiene che gli utenti debbano avere un maggiore controllo su come si comporta e apportare modifiche se non sono d’accordo con il comportamento predefinito.