Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

L’API OpenAI o1 offre un’intelligenza artificiale per il controllo dei fatti, ma gli sviluppatori pagheranno un premio

byKerem Gülen
18 Dicembre 2024
in Artificial Intelligence, News
Home Artificial Intelligence

OpenAI ha introdotto il suo nuovo modello di ragionamento o1 nella sua API, stendendolo a sviluppatori selezionati a partire dal 17 dicembre 2024. Il lancio fa parte di un aggiornamento più ampio che include anche nuove funzionalità che migliorano la funzionalità e la personalizzazione per gli sviluppatori. Per qualificarsi per l’utilizzo, gli sviluppatori devono spendere almeno $ 1.000 e mantenere account più vecchi di 30 giorni.

“Oggi stiamo introducendo modelli più potenti, nuovi strumenti per la personalizzazione e aggiornamenti che migliorano le prestazioni, la flessibilità e l’efficienza in termini di costi per gli sviluppatori che realizzano con l’intelligenza artificiale.”

-ApriAI

OpenAI lancia l’API o1 per sviluppatori selezionati

Il modello o1 sostituisce il precedente o1-preview, vantando funzionalità che gli consentono di verificare le proprie risposte, un vantaggio non comunemente riscontrabile nei modelli di intelligenza artificiale. Come compromesso, il modello di ragionamento tende a richiedere più tempo per generare risposte. Il costo per l’elaborazione con o1 è significativo; addebita agli sviluppatori $ 15 per ogni 750.000 parole analizzate e $ 60 per i contenuti generati, segnando un aumento di sei volte rispetto all’ultimo modello non ragionante, GPT-4o.

Il nuovo o1 è progettato per migliorare le limitazioni precedenti, con OpenAI che afferma di offrire “risposte più complete e accurate”, in particolare per domande tecniche relative alla programmazione e al business. Include miglioramenti come un parametro di sforzo di ragionamento che consente agli sviluppatori di controllare il tempo di elaborazione delle query. Inoltre, il modello è più adattabile rispetto al suo predecessore, supportando funzioni come i messaggi degli sviluppatori per personalizzare il comportamento del chatbot e abilitando output strutturati utilizzando uno schema JSON.

Per facilitare interazioni più dinamiche, OpenAI ha migliorato le sue capacità di chiamata di funzioni, consentendo al modello di utilizzare funzioni esterne già scritte durante la generazione di risposte. Secondo quanto riferito, questa iterazione API richiede il 60% in meno di token per l’elaborazione rispetto a o1-anteprimaottenendo allo stesso tempo un tasso di precisione più elevato, tra 25 e 35 punti percentuali in più su benchmark come LiveBench e AIME.

OpenAI ha inoltre ampliato le sue capacità relative alle interazioni in tempo reale attraverso la sua API Realtime, ora supportando WebRTC per una comunicazione audio più fluida. Questa aggiunta mira a semplificare l’integrazione per gli sviluppatori, riducendo significativamente la complessità del codice da circa 250 righe a circa una dozzina. Inoltre, OpenAI ha ridotto il costo dei token audio o1 del 60% e dei mini token del 90% per incoraggiarne l’utilizzo tra gli sviluppatori.

“La nostra integrazione WebRTC è progettata per consentire interazioni fluide e reattive in condizioni reali, anche con qualità di rete variabile”, ha scritto OpenAI nel blog. “Gestisce la codifica audio, lo streaming, la soppressione del rumore e il controllo della congestione.”

Un altro aggiornamento significativo include un nuovo metodo per mettere a punto i modelli di intelligenza artificiale chiamato ottimizzazione delle preferenze dirette. Ciò consente ai formatori del modello di fornire due output e specificare una preferenza senza la necessità di fornire esempi di input/output esatti per ogni scenario. OpenAI afferma che questo metodo migliora la capacità del modello di adattarsi a varie peculiarità nello stile di risposta, nella formattazione e nell’utilità.

Gli sviluppatori che utilizzano linguaggi di programmazione come Go e Java possono ora accedere a nuovi kit di sviluppo software (SDK) progettati per una più semplice integrazione delle API. Con il progredire di questi aggiornamenti, OpenAI prevede di espandere l’accesso e aumentare i limiti di velocità per più sviluppatori oltre la categoria iniziale di livello 5.


Credito immagine in primo piano: OpenAI

Tags: APIchatgptIn primo pianoO1openAI

Related Posts

Alphaevolve: come la nuova AI di Google mira alla verità con l’auto-correzione

Alphaevolve: come la nuova AI di Google mira alla verità con l’auto-correzione

15 Maggio 2025
Tiktok sta implementando testi ALT generati dall’IA per una migliore accessibilità

Tiktok sta implementando testi ALT generati dall’IA per una migliore accessibilità

15 Maggio 2025
Trump costringe Apple a ripensare la sua strategia di iPhone India

Trump costringe Apple a ripensare la sua strategia di iPhone India

15 Maggio 2025
L’IA di YouTube ora sa quando stai per comprare

L’IA di YouTube ora sa quando stai per comprare

15 Maggio 2025
Il CEO di Soundcloud ammette che i termini dell’IA non erano abbastanza chiari, emette un nuovo impegno

Il CEO di Soundcloud ammette che i termini dell’IA non erano abbastanza chiari, emette un nuovo impegno

15 Maggio 2025
Pronto per un chatgpt che ti conosce veramente?

Pronto per un chatgpt che ti conosce veramente?

14 Maggio 2025

Recent Posts

  • L’impatto dei tessuti intelligenti sulle prestazioni di abbigliamento tattico
  • Databricks scommette grandi su Postgres senza server con la sua acquisizione di neon da $ 1 miliardo
  • Alphaevolve: come la nuova AI di Google mira alla verità con l’auto-correzione
  • Tiktok sta implementando testi ALT generati dall’IA per una migliore accessibilità
  • Trump costringe Apple a ripensare la sua strategia di iPhone India

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.