La tecnologia della casa intelligente sta cambiando per sempre e una delle sue applicazioni di maggior impatto è Riconoscimento dell’attività umana (HAR). HAR consente ai sistemi intelligenti di monitorare attività quotidiane come cucinare, dormire o esercitare, fornendo supporto essenziale in settori come l’assistenza sanitaria e la vita assistita. Tuttavia, mentre i modelli di apprendimento profondo hanno notevolmente migliorato la precisione HAR, spesso operano come “scatole nere”, offrendo poca trasparenza nel loro processo decisionale.
Per rivolgersi a questo, ricercatori dell’Università di Milano – Michele Fiori, Davide Mor, Gabriele Civiterase e Claudio Bettini – hanno introdotto Gnn-xaril primo Retel neurale del grafico spiegabile (GNN) per il riconoscimento delle attività domestiche intelligenti. Questo modello innovativo non solo migliora le prestazioni di HAR, ma genera anche spiegazioni leggibili dall’uomo per le sue previsioni.
La necessità di un’intelligenza artificiale spiegabile in case intelligenti
La maggior parte dei sistemi HAR esistenti si basano su modelli di apprendimento profondo come Reti neurali convoluzionali (CNN) e reti neurali ricorrenti (RNNS). Sebbene efficaci, questi modelli lottano con la spiegabilità, rendendo difficile per gli utenti, compresi i professionisti medici e i data scientist – per capire perché è stata rilevata un’attività specifica. AI spiegabile (XAI) Cerca di mitigarlo fornendo approfondimenti sulle decisioni del modello, migliorando la fiducia e l’usabilità nelle applicazioni del mondo reale.
Graph Neural Networks (GNNS) sono emersi come un potente strumento per modellare i dati dei sensori della serie temporale in case intelligenti, come possono Cattura le relazioni spaziali e temporali tra le letture dei sensori. Tuttavia, gli approcci HAR a base di GNN esistenti mancano di una spiegabilità integrata. È qui che GNN-XAR si differenzia, offrendo una soluzione innovativa che si combina HAR basato su grafici con meccanismi di interpretabilitàrendendolo il primo del suo genere sul campo.
Emoti-Attack: come gli emoji possono ingannare i modelli di lingua AI
Come funziona GNN-XAR
GNN-XAR introduce un romanzo Approccio basato su grafici Per l’elaborazione dei dati del sensore. Invece di trattare le letture dei sensori come eventi isolati, esso Costruisce grafici dinamici Quel modello relazioni tra sensori diversi nel tempo. Ogni grafico viene elaborato utilizzando un file Grafico Convolutional Network (GCN)che identifica l’attività più probabile eseguita. Per garantire la trasparenza, un adattato Tecnica XAI appositamente progettata per GNNS Evidenzia i nodi più rilevanti (letture dei sensori) e gli archi (dipendenze temporali) che hanno contribuito alla previsione finale.
IL processo di costruzione del grafico è un’innovazione chiave in GNN-XAR. Gli eventi del sensore – come rilevamenti di movimento, utilizzo degli apparecchi e aperture delle porte – sono rappresentati come nodi, mentre i bordi catturano le loro relazioni temporali e spaziali. Il sistema distingue tra due tipi di sensori:
- Sensori di interazione espliciti (ad es. Sensori della porta del gabinetto), che generano eventi via e off.
- Sensori passivi (ad es. Rilevatori di movimento), dove vengono calcolati solo gli eventi di attivazione e la durata.
Per mantenere la struttura e l’efficienza, il sistema introduce super-nodi Quel gruppo ha correlato gli eventi del sensore. Ciò consente al modello GNN di elaborare interazioni del sensore complesse mantenendo gestibili i calcoli.
Come GNN-XAR spiega le sue decisioni
A differenza dei tradizionali modelli di apprendimento profondo, che forniscono solo output di classificazione, usi GNN-XAR Gnnexplainerun metodo XAI specializzato su misura per i modelli basati su grafici. Questo metodo identifica i nodi e i bordi più importanti che hanno influenzato una previsione. La chiave innovazione in GNN-XAR è il suo adattamento di Gnnexplainer per lavorare perfettamente con i dati di casa intelligente, garantendo che le spiegazioni siano entrambe accurato e leggibile dall’uomo.
Ad esempio, se il sistema prevede la “preparazione dei pasti”, può evidenziare eventi come Aperture di frigo ripetute seguite dall’attivazione della stufafornendo una logica e comprensibile logica per la sua classificazione. Il modello converte quindi questa spiegazione in linguaggio naturale, rendendola accessibile agli utenti non esperti.
Risultati sperimentali
GNN-XAR è stato testato su due set di dati pubblici di casa intelligente—Casas Milan E Casas Aruba—Che contengono dati sui sensori provenienti da case reali. Il modello è stato valutato contro Dexarun sistema HAR spiegabile all’avanguardia che utilizza metodi basati sulla CNN. I risultati hanno mostrato che GNN-XAR non solo fornito Previsioni più accurate ma anche generato spiegazioni più significative Rispetto ai metodi HAR a base XAI esistenti.
I risultati chiave includono:
- Accuratezza di riconoscimento leggermente più elevata di Dexar, in particolare per le attività con forti dipendenze temporali (ad es. “uscire di casa”).
- Spiegabilità superiorecome misurato da un metodo di valutazione utilizzando modelli di linguaggio di grandi dimensioni (LLM) per valutare la chiarezza e la pertinenza della spiegazione.
- Miglioramento della gestione delle relazioni di sensore complesseconsentendo prestazioni HAR più affidabili.
Credito immagine in primo piano: Ihor Saveliev/Unsplash