CEO di Openai, Sam Altman, rivelato Il fatto che i costi energetici dell’azienda siano significativamente influenzati dagli utenti educati al suo chatbot di Chatgpt, con l’onere di elaborazione extra che ha portato a spese “decine di milioni di dollari”.
L’intelligenza artificiale conversazionale è diventata così realistica che molti utenti si sentono inclini a usare un linguaggio educativo quando interagiscono con esso, non realizzando il potere di elaborazione aggiuntivo richiesto per gestire frasi come “per favore” e “grazie”. Come ha notato Altman, “non conosci mai” il valore di questa cortesia, ma è chiaro che ha un costo.
UN sondaggio Condotto negli Stati Uniti l’anno scorso ha rilevato che il 67% degli intervistati ha riferito di essere educato ai chatbot dell’IA, mentre il 33% ha preferito essere più diretto. Questa gentilezza potrebbe influire non solo sui costi energetici di Openi, ma anche nell’ambiente, poiché la maggior parte dei data center è ancora alimentata dall’elettricità generata dai combustibili fossili.
La ricerca ha anche dimostrato che il livello di educazione può influire sulla qualità delle risposte generate da grandi modelli linguistici (LLM) come Chatgpt. I suggerimenti di scorte possono portare a un deterioramento delle prestazioni del modello, con conseguenti risposte contenenti errori, pregiudizi più forti e omissione delle informazioni.
UN Techradar reporter chi sperimentato Con l’essere meno cortese per Chatgpt ha scoperto che le risposte “sembravano meno utili”. Ciò solleva domande sulle potenziali conseguenze dell’essere meno educato per i chatbot di intelligenza artificiale, non solo per le aziende che li gestiscono ma anche per le interazioni umane.
Se essere schietti ai chatbot di AI diventa socialmente accettabile, potrebbe potenzialmente sanguinare nelle interazioni interpersonali, rendendo gli scambi umani meno cortesi nel tempo. Di conseguenza, gli utenti potrebbero aver bisogno di valutare i vantaggi di essere educati all’IA rispetto ai potenziali costi ambientali e finanziari.