OpenAI ha introdotto il suo nuovo modello di ragionamento o1 nella sua API, stendendolo a sviluppatori selezionati a partire dal 17 dicembre 2024. Il lancio fa parte di un aggiornamento più ampio che include anche nuove funzionalità che migliorano la funzionalità e la personalizzazione per gli sviluppatori. Per qualificarsi per l’utilizzo, gli sviluppatori devono spendere almeno $ 1.000 e mantenere account più vecchi di 30 giorni.
“Oggi stiamo introducendo modelli più potenti, nuovi strumenti per la personalizzazione e aggiornamenti che migliorano le prestazioni, la flessibilità e l’efficienza in termini di costi per gli sviluppatori che realizzano con l’intelligenza artificiale.”
-ApriAI
OpenAI lancia l’API o1 per sviluppatori selezionati
Il modello o1 sostituisce il precedente o1-preview, vantando funzionalità che gli consentono di verificare le proprie risposte, un vantaggio non comunemente riscontrabile nei modelli di intelligenza artificiale. Come compromesso, il modello di ragionamento tende a richiedere più tempo per generare risposte. Il costo per l’elaborazione con o1 è significativo; addebita agli sviluppatori $ 15 per ogni 750.000 parole analizzate e $ 60 per i contenuti generati, segnando un aumento di sei volte rispetto all’ultimo modello non ragionante, GPT-4o.
Il nuovo o1 è progettato per migliorare le limitazioni precedenti, con OpenAI che afferma di offrire “risposte più complete e accurate”, in particolare per domande tecniche relative alla programmazione e al business. Include miglioramenti come un parametro di sforzo di ragionamento che consente agli sviluppatori di controllare il tempo di elaborazione delle query. Inoltre, il modello è più adattabile rispetto al suo predecessore, supportando funzioni come i messaggi degli sviluppatori per personalizzare il comportamento del chatbot e abilitando output strutturati utilizzando uno schema JSON.
Per facilitare interazioni più dinamiche, OpenAI ha migliorato le sue capacità di chiamata di funzioni, consentendo al modello di utilizzare funzioni esterne già scritte durante la generazione di risposte. Secondo quanto riferito, questa iterazione API richiede il 60% in meno di token per l’elaborazione rispetto a o1-anteprimaottenendo allo stesso tempo un tasso di precisione più elevato, tra 25 e 35 punti percentuali in più su benchmark come LiveBench e AIME.
OpenAI ha inoltre ampliato le sue capacità relative alle interazioni in tempo reale attraverso la sua API Realtime, ora supportando WebRTC per una comunicazione audio più fluida. Questa aggiunta mira a semplificare l’integrazione per gli sviluppatori, riducendo significativamente la complessità del codice da circa 250 righe a circa una dozzina. Inoltre, OpenAI ha ridotto il costo dei token audio o1 del 60% e dei mini token del 90% per incoraggiarne l’utilizzo tra gli sviluppatori.
“La nostra integrazione WebRTC è progettata per consentire interazioni fluide e reattive in condizioni reali, anche con qualità di rete variabile”, ha scritto OpenAI nel blog. “Gestisce la codifica audio, lo streaming, la soppressione del rumore e il controllo della congestione.”
Un altro aggiornamento significativo include un nuovo metodo per mettere a punto i modelli di intelligenza artificiale chiamato ottimizzazione delle preferenze dirette. Ciò consente ai formatori del modello di fornire due output e specificare una preferenza senza la necessità di fornire esempi di input/output esatti per ogni scenario. OpenAI afferma che questo metodo migliora la capacità del modello di adattarsi a varie peculiarità nello stile di risposta, nella formattazione e nell’utilità.
Gli sviluppatori che utilizzano linguaggi di programmazione come Go e Java possono ora accedere a nuovi kit di sviluppo software (SDK) progettati per una più semplice integrazione delle API. Con il progredire di questi aggiornamenti, OpenAI prevede di espandere l’accesso e aumentare i limiti di velocità per più sviluppatori oltre la categoria iniziale di livello 5.
Credito immagine in primo piano: OpenAI