Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Meta Llama 4 ti permetterà di parlare con AI come mai prima d’ora

byKerem Gülen
7 Marzo 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Meta Platforms Inc è impostato per migliorare le sue capacità vocali con la prossima versione della sua intelligenza artificiale, Llama 4, come riportato dal Tempi finanziari. Questo sviluppo si allinea alla strategia di Meta per concentrarsi su agenti di intelligenza artificiale conversazionali anziché sulle interazioni tradizionali basate sul testo.

Meta’s Llama 4: Transforming AI con capacità vocali

L’introduzione di caratteristiche vocali migliorate in Llama 4 è prevista nelle prossime settimane, con l’obiettivo di facilitare un dialogo naturale a due vie in cui gli utenti possono interrompere l’IA anziché aderire rigorosamente a un formato di domande e risposte. Questo spostamento dimostra l’impegno di Meta nel trasformare l’interazione degli utenti con la tecnologia AI.

Il CEO Mark Zuckerberg ha delineato obiettivi ambiziosi per l’azienda, designando il 2025 come un anno fondamentale per la sua gamma di prodotti AI, che sono in fase di sviluppo tra una maggiore concorrenza da parte di aziende come Openai, Microsoft e Google. Per sostenere queste iniziative, Meta prevede di investire fino a $ 65 miliardi nel 2025, concentrando principalmente questa spesa per l’infrastruttura del data center.


Meta AI si avvicina a 600 milioni di utenti mensili con Llama 3.3


Oltre ai progressi in Llama 4, Meta sta esplorando la possibilità di abbonamenti premium per il suo assistente di intelligenza artificiale, Meta AI, che gli consentirebbe di svolgere attività come prenotazioni di prenotazione e creazione di video. La società sta inoltre prendendo in considerazione l’implementazione di pubblicità a pagamento o post sponsorizzati nei risultati di ricerca di Meta AI.

Il Chief Product Officer Chris Cox ha indicato che Llama 4 opererebbe come un “modello Omni”, permettendo al discorso di funzionare in modo nativo all’interno del sistema, eliminando così la necessità di tradurre la voce in testo e ritorno. Ha sottolineato il significato di questa capacità della conferenza Morgan Stanley Technology, Media & Telecom, affermando: “Penso che stiamo ancora avvolgendo la testa attorno a quanto sia potente”.

Meta ha discusso attivamente i guardrail necessari per l’output del modello di Llama più recente mentre valuta se ridurre queste restrizioni. Queste discussioni arrivano tra le pressioni competitive mentre i rivali come Openai ed Elon Musk Xai fanno anche passi da gigante nella distribuzione di caratteristiche vocali, tra cui le distinte offerte di personalità di Openi e Grok 3, che presenta una “modalità sfrenata” che risponde in modi deliberatamente discutibili.

L’anno scorso, Meta ha affrontato le critiche riguardo al suo Modello Llama 2che era stato riluttante a rispondere a query benigne svelando una versione più flessibile in Llama 3. L’integrazione dei comandi vocali è anche una caratteristica chiave degli occhiali smart di Ray-Ban di Meta, che hanno guadagnato popolarità tra i consumatori, indicando ulteriormente la strategia dell’azienda per posizionare cuffie leggere come i principali dispositivi di calcolo del futuro.


Credito d’immagine in primo piano: Dima Solomin/Unsplash

Tags: AIIn primo pianoLlama 4Meta

Related Posts

Substack va in salotto con il lancio dell'app beta TV

Substack va in salotto con il lancio dell'app beta TV

23 Gennaio 2026
JBL lancia gli amplificatori BandBox basati sull'intelligenza artificiale

JBL lancia gli amplificatori BandBox basati sull'intelligenza artificiale

23 Gennaio 2026
Google lancia l'attivazione "Intelligenza personale" per gli utenti AI Pro e Ultra

Google lancia l'attivazione "Intelligenza personale" per gli utenti AI Pro e Ultra

23 Gennaio 2026
Spotify lancia le playlist guidate basate sull'intelligenza artificiale

Spotify lancia le playlist guidate basate sull'intelligenza artificiale

22 Gennaio 2026
Snap implementa il monitoraggio granulare del tempo di utilizzo nell'aggiornamento del Family Center

Snap implementa il monitoraggio granulare del tempo di utilizzo nell'aggiornamento del Family Center

22 Gennaio 2026
Google Foto ridisegna la condivisione con un coinvolgente carosello a schermo intero

Google Foto ridisegna la condivisione con un coinvolgente carosello a schermo intero

22 Gennaio 2026

Recent Posts

  • AWS e Prime Video colpiscono mentre Amazon prepara una nuova ondata di licenziamenti
  • Barret Zoph alla guida dell'aggressivo perno commerciale di OpenAI
  • Substack va in salotto con il lancio dell'app beta TV
  • LiveKit ha una valutazione di 1 miliardo di dollari come motore dietro la modalità vocale di ChatGPT
  • Vimeo avvia i licenziamenti del personale in seguito all'acquisizione di Bending Spoons

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.