Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

GPT-5.2 conta ancora due r nella fragola

byKerem Gülen
15 Dicembre 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

ChatGPT, basato sul modello GPT-5.2 di OpenAI rilasciato nel dicembre 2025, identifica erroneamente due r nella parola fragola, che ne contiene tre, perché il suo processo di tokenizzazione divide la parola in st-raw-berry, con solo due token contenenti r. I moderni sistemi di intelligenza artificiale dimostrano competenza nel generare immagini di marketing uniche, compilare report tramite browser di agenti e produrre canzoni in cima alle classifiche. Queste funzionalità evidenziano una formazione approfondita su vasti set di dati, consentendo il riconoscimento di modelli per risultati complessi. Al contrario, alcuni compiti fondamentali mettono in discussione questi modelli. Contare le lettere in una singola parola rappresenta uno di questi compiti, accessibile senza difficoltà a un bambino di sette anni. La specifica domanda in esame chiede quante r compaiono nella fragola. La parola fragola è composta dalle lettere fragola. L’ispezione visiva conferma tre r: una dopo t e due consecutive nella porzione di acino. Questa query è persistita come test per le prestazioni dell’intelligenza artificiale su più iterazioni del modello. Dopo il rilascio di dicembre 2025 di GPT-5.2i test hanno confermato che la risposta di ChatGPT è rimasta composta da due r. Le versioni precedenti mostravano incertezza o comportamento irregolare su questa domanda. L’ultimo modello ha fornito una risposta diretta di due, senza deviazioni. Questo risultato persiste nonostante gli investimenti che superano i miliardi di dollari, l’elevata domanda di hardware, compresi gli aumenti dei prezzi della RAM, e il sostanziale consumo globale di acqua legato alle infrastrutture di formazione. Il problema deriva dalla progettazione input-output tokenizzata di modelli linguistici di grandi dimensioni come ChatGPT. Il testo di input viene diviso in token, ovvero blocchi quali parole intere, sillabe o parti di parole. Il modello elabora questi token anziché le singole lettere. Di conseguenza, il conteggio delle lettere si basa sul contenuto dei token piuttosto che sull’enumerazione precisa delle lettere. Lo strumento OpenAI Tokenizer illustra questo processo. Entrando nella fragola si ottengono tre gettoni: st, crudo, bacca. Il primo token st non contiene r. Il secondo token grezzo include una r. La terza bacca del token include due r ma funziona come un singolo token. Il modello associa le r a due token, portando al conteggio di due. Questo modello di tokenizzazione influisce su parole simili. Raspberry si divide in token comparabili, con il risultato che ChatGPT riporta due r anche per quella parola. Il token bacca comprime più lettere in un’unica unità, sottovalutando le singole istanze di lettere al suo interno. ChatGPT funziona come un motore di previsione, sfruttando i modelli dei dati di addestramento per anticipare gli elementi successivi. GPT-5.x incorpora il metodo di tokenizzazione o200k_harmony, introdotto con i modelli OpenAI o4-mini e GPT-4o. Questo schema aggiornato punta all’efficienza ma mantiene la discrepanza nel conteggio dell’R delle fragole. ChatGPT è stato lanciato alla fine del 2022 tra numerose sfide basate sui token. Frasi specifiche hanno innescato risposte eccessive o errori di elaborazione. OpenAI ne ha affrontati molti attraverso adeguamenti della formazione e miglioramenti del sistema negli anni successivi. I test di verifica sui problemi classici hanno mostrato miglioramenti. ChatGPT scrive accuratamente il Mississippi, identificando le lettere Mississippi con le frequenze corrette: una m, quattro i, quattro s, due p. Inverte anche il lecca-lecca in popillol, preservando tutte le lettere nella sequenza corretta. I modelli linguistici di grandi dimensioni mostrano limitazioni persistenti nel conteggio esatto di piccole quantità. Si comportano bene in matematica e nella risoluzione dei problemi, ma esitano nel conteggio preciso di lettere o parole in brevi stringhe. Un notevole esempio storico riguarda la corda solidgoldmagikarp. In GPT-3, questa frase interrompeva la tokenizzazione, causando risultati irregolari tra cui insulti degli utenti e testo incomprensibile. L’interrogazione di GPT-5.2 su solidgoldmagikarp ha prodotto un’allucinazione. Il modello lo descriveva come uno scherzo segreto sui Pokémon incorporato nei repository GitHub dagli sviluppatori. L’attivazione presumibilmente trasforma avatar, icone del repository e altre funzionalità in elementi a tema Pokémon. Questa affermazione non ha alcun fondamento nella realtà e riflette gli effetti residui di precedenti problemi di tokenizzazione. Test comparativi su altri modelli di intelligenza artificiale hanno prodotto risultati corretti per la domanda sulla fragola. La perplessità contava tre r. Claude ha fornito il conteggio accurato di tre. Grok ha identificato tre r nella fragola. I Gemelli hanno risposto correttamente con tre. Qwen ha confermato le tre r. Anche il copilota ha riportato tre r. Questi modelli utilizzano sistemi di tokenizzazione distinti, consentendo un’identificazione accurata delle lettere anche se alimentati dalle architetture sottostanti di OpenAI.


Credito immagine in primo piano

Tags: chatgptgpt-5.2openAI

Related Posts

WhatsApp rilascia il pacchetto di adesivi 2026 e i fuochi d’artificio per le videochiamate

WhatsApp rilascia il pacchetto di adesivi 2026 e i fuochi d’artificio per le videochiamate

30 Dicembre 2025
La nuova ammiraglia Xiaomi con eSIM entrerà nella produzione di massa il prossimo anno

La nuova ammiraglia Xiaomi con eSIM entrerà nella produzione di massa il prossimo anno

30 Dicembre 2025
Gallery TV si unisce alla gamma lifestyle LG con un esclusivo servizio artistico

Gallery TV si unisce alla gamma lifestyle LG con un esclusivo servizio artistico

30 Dicembre 2025
Il funzionamento dell’anello dello zoom di Xiaomi 17 Ultra è normale

Il funzionamento dell’anello dello zoom di Xiaomi 17 Ultra è normale

30 Dicembre 2025
HP rivela i monitor gaming OMEN OLED prima del CES 2026

HP rivela i monitor gaming OMEN OLED prima del CES 2026

30 Dicembre 2025
CachyOS sfida Ubuntu nei nuovi benchmark dei server

CachyOS sfida Ubuntu nei nuovi benchmark dei server

30 Dicembre 2025

Recent Posts

  • WhatsApp rilascia il pacchetto di adesivi 2026 e i fuochi d’artificio per le videochiamate
  • La nuova ammiraglia Xiaomi con eSIM entrerà nella produzione di massa il prossimo anno
  • Meta acquista Manus, società di intelligenza artificiale in rapida crescita, con un accordo da 2 miliardi di dollari
  • Gallery TV si unisce alla gamma lifestyle LG con un esclusivo servizio artistico
  • Perché l’accordo Groq di Nvidia è così fondamentale per il futuro dell’intelligenza artificiale

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.