L’intelligenza artificiale è brava nel riconoscimento dei pattern ma lotta con il ragionamento. Nel frattempo, la cognizione umana è profondamente radicata nella logica e nella coerenza. E se potessimo poter Combina il meglio di entrambi i mondi—Il potere di elaborazione grezzo dei modelli di grandi dimensioni (LLM) e del pensiero strutturato e basato sulle regole dell’intelligenza artificiale simbolica?
Questo è l’obiettivo dietro AI neurosimbolicoun nuovo approccio che unisce l’apprendimento profondo con l’inferenza guidata dalla coerenza (CDI). I ricercatori Huntsman e Thomas propongono un metodo che consente a LLMS di Costruisci relazioni logiche dal linguaggio naturale, aprendo la porta a Migliore ragionamento decisionale, risoluzione dei problemi e persino ragionamenti legali guidati dall’IA.
Questo studio, “Intelligenza artificiale neurosimbolica tramite grandi modelli linguistici e inferenza guidata dalla coerenza“Condotto da Steve Huntsman e Jewell Thomas di Cynovative, esplora un nuovo approccio per integrare l’inferenza guidata dalla coerenza (CDI) con grandi modelli linguistici (LLM). Sviluppando un algoritmo che trasforma le proposizioni del linguaggio naturale in grafici di coerenza strutturati, i ricercatori hanno riferito la capacità dei modelli AI di ricostruire le relazioni logiche.
Qual è l’inferenza guidata dalla coerenza?
L’inferenza guidata dalla coerenza (CDI) è un modo per prendere decisioni in base al modo in cui una serie di proposizioni si adattano insieme. Invece di accettare o rifiutare i singoli fatti, CDI costruisce a grafico delle relazioniassegnare pesi a coerente E contraddittorio dichiarazioni.
Un grafico di coerenza collegherebbe queste proposizioni e Segna la loro coerenzaaiutando l’IA a determinare quali affermazioni sono più probabili essere vere.
Il problema? Fino ad ora, questi grafici dovevano essere costruito manualmente—Un processo scrupoloso e poco pratico. La nuova ricerca propone un algoritmo che può generare automaticamente questi grafici da Input del linguaggio naturale E testare quanto bene gli LLM possono ricostruirli.
Insegnare agli LLM per costruire strutture logiche
Il metodo dei ricercatori prevede due passaggi chiave:
- Generare proposizioni: Una serie di dichiarazioni viene creata in linguaggio naturale, che riflette una struttura logica.
- Ricostruzione dei grafici di coerenza: LLMS viene quindi richiesto di analizzare queste dichiarazioni e ricostruire la struttura grafica sottostante.
In questo modo, i modelli AI sono costretti a farlo Pensa più come gli umanivalutando non solo i singoli fatti ma come si collegano a una più ampia rete di conoscenza.
Può Ai farlo bene?
Lo studio ha testato vari LLM, da GPT-4o e Claude 3.5 A Modelli open source come Qwen-32B e Llama-3.3. I risultati erano Sorprendentemente promettente—Quesi modelli sono stati in grado di ricostruire i grafici di coerenza con alta precisione, anche sotto condizioni incerte o ambigue.
È interessante notare, Modelli ottimizzati per il ragionamentoPiace O1-Mini e QWQ-32Bha eseguito il meglio. Ciò suggerisce che i sistemi di intelligenza artificiale specificamente Risoluzione strutturata dei problemi può superare gli LLM per scopi generali quando si gestiscono compiti di ragionamento complessi.
Al centro di Inferenza guidata dalla coerenza (CDI) è l’idea che la conoscenza non sia solo una raccolta di fatti isolati—S è una rete di verità interdipendenti. Il metodo introdotto da Huntsman e Thomas Structures Conoscenza come a Grafico di coerenzaDove:
- Nodi rappresentano proposizioni (ad es. “L’Aia è la capitale”).
- Bordi rappresentare coerenza O incoerenza tra quelle proposizioni.
Se una proposta ne supporta un altroottiene un connessione positiva. Se due dichiarazioni contraddicono, ricevono un connessione negativa. L’obiettivo? A massimizzare la coerenza separando affermazioni vere e false in cluster diversi.
Il problema di trovare la partizione più coerente in un grafico risulta matematicamente equivalente a Taglio massimouna nota sfida computazionale. L’intelligenza artificiale neurosimbolica affronta questo combinando la comprensione del linguaggio naturale di LLMS con il ragionamento basato su grafici di CDI.
L’approccio dei ricercatori prende ispirazione sia psicologia che informatica. CDI è stato usato per modellare processo decisionale umanoragionamento legale e persino Inferenza causale nella scienza. Ma fino ad ora, i grafici CDI dovevano essere costruiti manualmente.
Per automatizzare questo processo, lo studio propone un algoritmo che:
- Trasforma le proposizioni del linguaggio naturale in un grafico di coerenza strutturato.
- Trains LLMS per ricostruire questi graficitestare la loro capacità di identificare le relazioni tra i fatti.
- Benchmarks Performance su diversi modelli AIanalizzando il modo in cui conservano la coerenza logica.
Per testare il modo in cui gli LLM gestiscono l’inferenza guidata dalla coerenza, i ricercatori hanno generato grafici di coerenza sintetica e li hanno alimentati in vari modelli di intelligenza artificiale. Questi grafici contenevano dichiarazioni sia coerenti che contraddittorie, sfidando i modelli a identificare le strutture logiche piuttosto che rigurgitare le informazioni.
Hanno testato:
- Claude 3.5 e GPT-4o (LLMS commerciale di fascia alta)
- QWQ-32B, O1-Mini e Llama-3 (modelli open source ottimizzati per il ragionamento)
- Phi-4 e Gemini 1.5/2.0 (modelli più piccoli e di medie dimensioni)
I risultati hanno mostrato che:
- I modelli ottimizzati per il ragionamento (come O1-Mini e QWQ-32B) hanno superato significativamente LLM per scopi generali.
- Alcuni modelli hanno ricostruito con successo il grafico di coerenza originale, anche di fronte a informazioni incerte o ambigue.
- LLMS ha lottato con strutture logiche più complesse, in particolare quando le proposizioni multiple erano interdipendenti.
Questa ricerca è un passo importante verso AI davvero intelligente. Invece di trattare il linguaggio come a gioco di ipotesi statisticheForze di inferenza guidate dalla coerenza AI a Valuta la coerenza logicaportando a:
- Output di AI più affidabili (Meno allucinazione, ragionamento più accurato)
- Migliore spiegabilità (Decisioni di intelligenza artificiale basate su strutture logiche esplicite)
- Risoluzione dei problemi migliorata (applicabile a legge, scienza e governance)
Credito immagine in primo piano: Tara Winstead/Pexels