L’ascesa di incorporato Ml sta trasformando il modo in cui i dispositivi interagiscono con il mondo, spingendo i confini di ciò che è possibile con risorse limitate. Queste applicazioni, dai dispositivi indossabili intelligenti ai sensori industriali, richiedono un delicato equilibrio tra prestazioni, consumo di energia e privacy.
Vladislav Agafonov, un esperto di apprendimento automatico presso Meta Reality Labs UK (Precedentemente Oculus VR), comprende intimamente queste sfide.
“L’apprendimento automatico incorporato è affascinante e stimolante perché stiamo gestendo modelli di apprendimento profondo su dispositivi con memoria molto limitata e potenza del processore”, ha affermato Agafonov.
Una delle sfide più persistenti, secondo Agafonov, è l’ottimizzazione di modelli per dispositivi con potenza e memoria computazionali limitate.
“La sfida più persistente è il bilanciamento dell’accuratezza del modello con una memoria on-chip limitata e un potere di elaborazione vincolato”, ha affermato Agafonov.
Per affrontare questo problema, tecniche come la quantizzazione e la potatura sono cruciali. La quantizzazione riduce il numero di bit utilizzati per archiviare i pesi del modello, spesso da 32 bit a 8 o meno, tagliando significativamente l’utilizzo della memoria. La potatura, d’altra parte, rimuove le connessioni inutili nella rete, riducendo le dimensioni del modello e accelerando l’inferenza.
“Prendo anche attenzione all’operazione Fusion, il che significa unire più passaggi nel calcolo per evitare di memorizzare grandi risultati intermedi in memoria”, ha detto Agafonov. “Allo stesso modo, l’utilizzo dell’accesso alla memoria diretta (DMA) può consentire ai dati del sensore di fluire direttamente nel motore di calcolo senza copie aggiuntive, contribuendo a ridurre la latenza.”
Profilando meticolosamente ogni fase, misurando cicli, impronta della memoria e consumo di energia, gli ingegneri possono ottimizzare dove conta di più, adattando modelli sofisticati in poche centinaia di kilobyte di memoria.
Accelerazione hardware e ottimizzazione del software
L’accelerazione hardware è un altro componente critico di ML incorporato. I chip specializzati come le unità di elaborazione neurale (NPU) e le unità di elaborazione tensore (TPU) gestiscono l’elaborazione parallela, accelerando drasticamente l’inferenza della rete neurale minimizzando l’utilizzo di potenza.
“L’accelerazione hardware è assolutamente la chiave per eseguire sofisticati modelli ML su dispositivi incorporati”, ha affermato Agafonov. “Ma man mano che questi chip si evolvono, l’ottimizzazione del software rimane altrettanto importante.”
Framework come Executorch mirano a semplificare il processo di sviluppo gestendo dettagli a basso livello, come la mappatura dei carichi di lavoro su diversi acceleratori e la gestione in modo efficiente della memoria.
“Invece di passare ore a cercare di ottimizzare ogni parte di ogni parte del tuo codice per ogni nuovo chip, puoi fare affidamento sul framework per fare il sollevamento pesante”, ha detto Agafonov.
Ciò consente agli sviluppatori di concentrarsi sui modelli di apprendimento automatico stesso, piuttosto che sulla complessità dell’ottimizzazione dell’hardware.
Privacy e apprendimento federato
La privacy è una preoccupazione crescente e ML incorporato offre il vantaggio dell’elaborazione dei dati locali.
“Uno dei grandi motivi per cui ML incorporato è così prezioso è che i dati possono essere elaborati direttamente sul dispositivo, il che riduce o addirittura elimina la necessità di inviare informazioni sensibili su una rete”, ha affermato Agafonov.
L’apprendimento federato porta questo concetto ulteriormente, consentendo ai dispositivi di formare modelli a livello locale e condividere solo aggiornamenti aggregati con un server centrale.
“Invece di raccogliere i dati di tutti in un database centrale, ogni dispositivo forma il modello in modo indipendente utilizzando le proprie informazioni locali”, ha affermato Agafonov. “Quindi, invia solo un” aggiornamento “o un riepilogo di ciò che ha appreso, non i dati grezzi stessi.”
Questo approccio migliora la privacy prevenendo la trasmissione di dati degli utenti grezzi, particolarmente importante in applicazioni sensibili come la salute e i dispositivi personali.
L’ascesa di tinyml
TinyMl, l’applicazione dell’apprendimento automatico su dispositivi estremamente limitati dalle risorse come i microcontrollori, sta guadagnando slancio.
“Pensa a un piccolo chip con solo poche centinaia di kilobyte di memoria che deve ancora gestire compiti come la classificazione o il rilevamento senza scaricare una batteria nel processo”, ha detto Agafonov.
Applicazioni come il monitoraggio ambientale e la manutenzione predittiva industriale sono i primi esempi.
“I piccoli sensori a batteria possono rilevare suoni animali o cambiamenti nella qualità dell’aria, quindi trasmettere avvisi significativi senza sprecare energia su uno streaming di dati costanti”, ha affermato Agafonov. “Nell’industria, i microcontrollori possono rilevare i primi segni di insufficienza dei macchinari monitorando vibrazioni o picchi di temperatura, contribuendo a prevenire costosi guasti.”
La crescita di Tinyml è guidata dai progressi nell’hardware e nel software. I microcontroller ora includono blocchi di elaborazione specializzati e framework ML leggeri semplificano l’ottimizzazione e la distribuzione del modello.
Esperienze coinvolgenti e tendenze future
In Meta Reality Labs, ML incorporato viene utilizzato per migliorare le esperienze coinvolgenti.
“Stiamo sfruttando ML incorporato per rendere le esperienze coinvolgenti più naturali e reattive – pensa a un rapido riconoscimento dei gesti su un braccialetto che ti consente di controllare le interfacce AR o VR senza controller ingombranti”, ha detto Agafonov.
Tuttavia, rimangono problemi tecnici. “Un ostacolo significativo è bilanciare il consumo di energia con la necessità di inferenza quasi istantanea”, ha affermato Agafonov. “Un altro è garantire che i modelli rimangano accurati in qualsiasi condizione.”
Guardando al futuro, Agafonov vede diverse tendenze chiave che modellano il futuro di ML incorporato. La crescente adozione di microcontrollori abilitati per TinyML e ML, l’espansione dell’accelerazione hardware con chip ML specializzati e il crescente uso dell’apprendimento federato per l’elaborazione dei dati che preserva la privacy sono tutti pronti a guidare l’innovazione in questo campo.
Poiché ML incorporato continua a evolversi, la capacità di bilanciare il potere, la privacy e le prestazioni saranno cruciali per sbloccare il suo pieno potenziale.