ChatGPT, basato sul modello GPT-5.2 di OpenAI rilasciato nel dicembre 2025, identifica erroneamente due r nella parola fragola, che ne contiene tre, perché il suo processo di tokenizzazione divide la parola in st-raw-berry, con solo due token contenenti r. I moderni sistemi di intelligenza artificiale dimostrano competenza nel generare immagini di marketing uniche, compilare report tramite browser di agenti e produrre canzoni in cima alle classifiche. Queste funzionalità evidenziano una formazione approfondita su vasti set di dati, consentendo il riconoscimento di modelli per risultati complessi. Al contrario, alcuni compiti fondamentali mettono in discussione questi modelli. Contare le lettere in una singola parola rappresenta uno di questi compiti, accessibile senza difficoltà a un bambino di sette anni. La specifica domanda in esame chiede quante r compaiono nella fragola. La parola fragola è composta dalle lettere fragola. L’ispezione visiva conferma tre r: una dopo t e due consecutive nella porzione di acino. Questa query è persistita come test per le prestazioni dell’intelligenza artificiale su più iterazioni del modello. Dopo il rilascio di dicembre 2025 di GPT-5.2i test hanno confermato che la risposta di ChatGPT è rimasta composta da due r. Le versioni precedenti mostravano incertezza o comportamento irregolare su questa domanda. L’ultimo modello ha fornito una risposta diretta di due, senza deviazioni. Questo risultato persiste nonostante gli investimenti che superano i miliardi di dollari, l’elevata domanda di hardware, compresi gli aumenti dei prezzi della RAM, e il sostanziale consumo globale di acqua legato alle infrastrutture di formazione. Il problema deriva dalla progettazione input-output tokenizzata di modelli linguistici di grandi dimensioni come ChatGPT. Il testo di input viene diviso in token, ovvero blocchi quali parole intere, sillabe o parti di parole. Il modello elabora questi token anziché le singole lettere. Di conseguenza, il conteggio delle lettere si basa sul contenuto dei token piuttosto che sull’enumerazione precisa delle lettere. Lo strumento OpenAI Tokenizer illustra questo processo. Entrando nella fragola si ottengono tre gettoni: st, crudo, bacca. Il primo token st non contiene r. Il secondo token grezzo include una r. La terza bacca del token include due r ma funziona come un singolo token. Il modello associa le r a due token, portando al conteggio di due. Questo modello di tokenizzazione influisce su parole simili. Raspberry si divide in token comparabili, con il risultato che ChatGPT riporta due r anche per quella parola. Il token bacca comprime più lettere in un’unica unità, sottovalutando le singole istanze di lettere al suo interno. ChatGPT funziona come un motore di previsione, sfruttando i modelli dei dati di addestramento per anticipare gli elementi successivi. GPT-5.x incorpora il metodo di tokenizzazione o200k_harmony, introdotto con i modelli OpenAI o4-mini e GPT-4o. Questo schema aggiornato punta all’efficienza ma mantiene la discrepanza nel conteggio dell’R delle fragole. ChatGPT è stato lanciato alla fine del 2022 tra numerose sfide basate sui token. Frasi specifiche hanno innescato risposte eccessive o errori di elaborazione. OpenAI ne ha affrontati molti attraverso adeguamenti della formazione e miglioramenti del sistema negli anni successivi. I test di verifica sui problemi classici hanno mostrato miglioramenti. ChatGPT scrive accuratamente il Mississippi, identificando le lettere Mississippi con le frequenze corrette: una m, quattro i, quattro s, due p. Inverte anche il lecca-lecca in popillol, preservando tutte le lettere nella sequenza corretta. I modelli linguistici di grandi dimensioni mostrano limitazioni persistenti nel conteggio esatto di piccole quantità. Si comportano bene in matematica e nella risoluzione dei problemi, ma esitano nel conteggio preciso di lettere o parole in brevi stringhe. Un notevole esempio storico riguarda la corda solidgoldmagikarp. In GPT-3, questa frase interrompeva la tokenizzazione, causando risultati irregolari tra cui insulti degli utenti e testo incomprensibile. L’interrogazione di GPT-5.2 su solidgoldmagikarp ha prodotto un’allucinazione. Il modello lo descriveva come uno scherzo segreto sui Pokémon incorporato nei repository GitHub dagli sviluppatori. L’attivazione presumibilmente trasforma avatar, icone del repository e altre funzionalità in elementi a tema Pokémon. Questa affermazione non ha alcun fondamento nella realtà e riflette gli effetti residui di precedenti problemi di tokenizzazione. Test comparativi su altri modelli di intelligenza artificiale hanno prodotto risultati corretti per la domanda sulla fragola. La perplessità contava tre r. Claude ha fornito il conteggio accurato di tre. Grok ha identificato tre r nella fragola. I Gemelli hanno risposto correttamente con tre. Qwen ha confermato le tre r. Anche il copilota ha riportato tre r. Questi modelli utilizzano sistemi di tokenizzazione distinti, consentendo un’identificazione accurata delle lettere anche se alimentati dalle architetture sottostanti di OpenAI.





