I ricercatori del MIT hanno sviluppato un nuovo sistema di sintesi vocale che combina l’intelligenza artificiale generativa 3D con l’assemblaggio robotico per fabbricare oggetti su richiesta. Il sistema creava oggetti come mobili in soli cinque minuti. Questo flusso di lavoro basato sull’intelligenza artificiale consente agli utenti di fornire input vocali a un braccio robotico, “parlando e dando vita agli oggetti”. La tecnologia sfrutta l’elaborazione del linguaggio naturale, l’intelligenza artificiale generativa 3D e l’assemblaggio robotico per semplificare il processo di produzione. Alexander Htet Kyaw, uno studente laureato del MIT e membro della Morningside Academy for Design (MAD), ha dichiarato: “Stiamo collegando l’elaborazione del linguaggio naturale, l’intelligenza artificiale generativa 3D e l’assemblaggio robotico”. Ha aggiunto che queste aree di ricerca in rapido progresso non sono state precedentemente combinate per creare oggetti fisici da un semplice messaggio vocale. Il sistema riceve comandi vocali, come “Voglio un semplice sgabello”, e quindi costruisce oggetti da componenti modulari. Finora, i ricercatori hanno utilizzato il sistema per costruire sgabelli, scaffali, sedie, un tavolino e forme decorative tra cui una statua di un cane. Il sistema di sintesi vocale elabora le richieste degli utenti attraverso diverse fasi:
- Riconoscimento vocale: Un modello linguistico di grandi dimensioni elabora l’input parlato dell’utente.
- IA generativa 3D: Il sistema crea una rappresentazione mesh digitale dell’oggetto desiderato.
- Algoritmo di voxelizzazione: La mesh 3D è suddivisa in componenti di assieme specifici.
- Elaborazione geometrica: L’assieme generato dall’intelligenza artificiale viene modificato per tenere conto dei vincoli di fabbricazione del mondo reale, come il numero dei componenti, le sporgenze e la connettività geometrica.
- Sequenza di montaggio e pianificazione del percorso: Il sistema crea una sequenza di assemblaggio fattibile e una pianificazione automatizzata del percorso per il braccio robotico.
A differenza della stampa 3D, che spesso richiede ore o giorni, questo sistema completa la costruzione dell’oggetto in pochi minuti. Rende inoltre la progettazione e la produzione più accessibili a persone senza esperienza nella modellazione 3D o nella programmazione robotica. Kyaw ha sviluppato il sistema iniziale mentre seguiva il corso del professor Neil Gershenfeld, “Come realizzare quasi qualsiasi cosa”. Ha continuato il progetto presso il MIT Center for Bits and Atoms (CBA), collaborando con gli studenti laureati Se Hwan Jeon del Dipartimento di Ingegneria Meccanica e Miana Smith del CBA. Il team prevede di migliorare la capacità di carico dei mobili implementando connessioni più robuste tra i cubi modulari, andando oltre le attuali connessioni magnetiche. Smith ha osservato: “Abbiamo anche sviluppato pipeline per convertire le strutture voxel in sequenze di assemblaggio realizzabili per robot mobili piccoli e distribuiti, che potrebbero aiutare a tradurre questo lavoro in strutture di qualsiasi dimensione”. L’uso di componenti modulari mira a ridurre gli scarti di produzione consentendo lo smontaggio e il riassemblaggio in nuovi oggetti. Kyaw sta anche lavorando per integrare il riconoscimento dei gesti e la realtà aumentata nel sistema, combinando sia il controllo vocale che quello gestuale per una migliore interazione. Il team ha presentato il proprio articolo, “Speech to Reality: On-Demand Production using Natural Language, 3D Generative AI, and Discrete Robotic Assembly”, al simposio sulla fabbricazione computazionale (SCF ’25) dell’Association for Computing Machinery (ACM) al MIT il 21 novembre. https://www.youtube.com/watch?v=GJQD86H9Nok





