Nvidia annunciato nuovi modelli e infrastrutture di intelligenza artificiale lunedì alla conferenza NeurIPS AI a San Diego, in California, per far avanzare l’intelligenza artificiale fisica per robot e veicoli autonomi che percepiscono e interagiscono con il mondo reale. L’iniziativa si concentra sullo sviluppo della tecnologia portante per la ricerca sulla guida autonoma attraverso strumenti open source. L’azienda di semiconduttori ha introdotto Alpamayo-R1, descritto come un modello di linguaggio visivo a ragionamento aperto su misura per la ricerca sulla guida autonoma. Nvidia lo posiziona come il primo modello di azione con linguaggio visivo specificamente focalizzato sulle applicazioni di guida autonoma. I modelli del linguaggio visivo integrano l’elaborazione sia del testo che delle immagini, consentendo ai veicoli di “vedere” l’ambiente circostante e generare decisioni basate su input percettivi provenienti dall’ambiente. Alpamayo-R1 si basa direttamente sul modello Cosmos-Reason di Nvidia, che funziona come un modello di ragionamento che delibera attraverso le decisioni prima di generare risposte. Questo approccio fondamentale consente un processo decisionale più strutturato in scenari complessi. Nvidia ha rilasciato per la prima volta la più ampia famiglia di modelli Cosmos nel gennaio 2025, stabilendo una serie di strumenti di intelligenza artificiale progettati per attività di ragionamento avanzate. Nell’agosto 2025, l’azienda ha ampliato questa gamma con modelli aggiuntivi per migliorare le capacità nei domini fisici dell’intelligenza artificiale. https://blogs.nvidia.com/wp-content/uploads/2025/11/ov-neurips-25-blog-corp-blog-1280×680-1.mp4
Video: Nvidia
Secondo un post sul blog di Nvidia, tecnologie come Alpamayo-R1 svolgono un ruolo fondamentale per le aziende che perseguono la guida autonoma di livello 4. Questo livello definisce la piena autonomia all’interno di un’area operativa designata e in condizioni particolari, dove i veicoli operano senza intervento umano in tali parametri. Le capacità di ragionamento integrate nel modello mirano a dotare i veicoli autonomi del “buon senso” necessario per gestire decisioni di guida sfumate in modi paragonabili ai conducenti umani. Gli sviluppatori possono accedere immediatamente ad Alpamayo-R1 su piattaforme tra cui GitHub e Hugging Face, facilitando l’adozione diffusa e la sperimentazione in progetti di guida autonoma. Parallelamente, Nvidia ha rilasciato Cosmos Cookbook su GitHub, comprendente guide dettagliate, risorse di inferenza e flussi di lavoro post-formazione. Questi materiali assistono gli sviluppatori nella formazione e nell’implementazione di modelli Cosmos per casi d’uso mirati, con una copertura che si estende ai processi di data curation, alle tecniche di generazione di dati sintetici e ai metodi completi di valutazione dei modelli.





