Apple ha condiviso alcuni spunti interessanti sul suo Large Language Model (LLM): ReaLM. Con ReaLM, Apple mira a trasformare le nostre interazioni quotidiane con i nostri dispositivi, offrendo un’esperienza utente più intelligente e intuitiva che si integra perfettamente con la nostra vita quotidiana. L’azienda di Cupertino continua a investire nei progressi dell’intelligenza artificiale, come evidenziato da questa pubblicazione di ricerca.
ReaLM di Apple compete con altri LLM
Gli esperti di intelligenza artificiale di Apple delineano un sistema che consente a Siri di andare oltre le semplici capacità di riconoscimento delle immagini. Affermano inoltre che questo sistema non solo compete ma supera GPT-4, in base ai loro parametri di riferimento interni:
Modello | Conv | Sintetizzatore | Schermo | Invisibile |
---|---|---|---|---|
MARR | 92.1 | 99,4 | 83,5 | 84,5 |
GPT-3.5 | 84.1 | 34.2 | 74.1 | 67,5 |
GPT-4 | 97,0 | 58.7 | 90.1 | 98,4 |
ReALM-80M | 96,7 | 99,5 | 88,9 | 99,3 |
ReALM-250M | 97,8 | 99,8 | 90.6 | 97.2 |
ReALM-1B | 97,9 | 99,7 | 91.4 | 94,8 |
ReALM-3B | 97,9 | 99,8 | 93,0 | 97,8 |
Questo sviluppo suggerisce un futuro in cui Siri diventa più intelligente ed efficiente. Apple sembra ottimista riguardo all’esecuzione di questo progetto, dimostrando la sua velocità se confrontata con i modelli ChatGPT 3.5 e 4.0 di OpenAI:
“Come ulteriore riferimento, utilizziamo le varianti GPT-3.5 (Brown et al., 2020; Ouyang et al., 2022) e GPT-4 (Achiam et al., 2023) di ChatGPT, disponibili il 24 gennaio 2024, con apprendimento in contesto. Come nella nostra configurazione, miriamo a fare in modo che entrambe le varianti prevedano un elenco di entità da un set disponibile. Nel caso di GPT-3.5, che accetta solo testo, il nostro input consiste solo nel prompt; tuttavia, nel caso di GPT-4, che ha anche la capacità di contestualizzare sulle immagini, forniamo al sistema uno screenshot con il compito di risoluzione di riferimento sullo schermo, che troviamo aiuta a migliorare sostanzialmente le prestazioni.“
Il supercervello Siri
Nella sua ricerca, Apple introduce ReaLM come un miglioramento significativo per Siri, dotandolo essenzialmente di un “super cervello”. Questo aggiornamento migliora significativamente la capacità di Siri di comprendere le richieste degli utenti analizzando i contenuti sullo schermo, come messaggi di testo e immagini, per anticipare le esigenze degli utenti in modo più accurato. ReaLM tiene anche traccia delle conversazioni in corso con Siri, permettendogli di ricordare le menzioni precedenti per una migliore assistenza.
ReaLM agisce essenzialmente come un osservatore onnipresente, in grado di rilevare attività di sottofondo come allarmi o musica e personalizzare di conseguenza le sue interazioni.

La ricerca include un dialogo di esempio che ne mostra le capacità.
Altoparlante | Dialogo |
---|---|
Utente | Mostrami le farmacie vicino a me. |
Agente | Ecco un elenco che ho trovato. |
Agente | … (elenco presentato) |
Utente | (es. 1) Chiama quello su Rainbow Rd. |
Utente | (es. 2) Chiama quello in basso. |
Utente | (es. 3) Chiama questo numero (presente sullo schermo). |
Rispetto ad altri sistemi intelligenti, ReaLM ha dimostrato capacità di risoluzione dei problemi superiori, rendendolo una funzionalità straordinaria che funziona direttamente su iPhone e altri dispositivi Apple. Questo approccio garantisce che i dati degli utenti rimangano al sicuro e che il sistema funzioni con una velocità eccezionale, migliorando l’intelligenza di Siri e la comprensione delle azioni e delle parole degli utenti.
Anche se non esiste una data di rilascio confermata per ReaLM di Apple, si prevede che aspetti di questa tecnologia potrebbero essere integrati nelle prossime versioni dei sistemi operativi Apple, come iOS o macOS. Eventi futuri come la Worldwide Developers Conference (WWDC) di giugno potrebbero fornire ulteriori informazioni sulla sua implementazione.
Credito immagine in primo piano: Stephen L/Unsplash