Due agenti di intelligenza artificiale entrano in una telefonata – o piuttosto, comporre – per prenotare una camera d’albergo. Iniziano in inglese, tutti educati e umani, fino a quando non si dice: “Aspetta, sei anche tu?” Indica un passaggio a GibberLink: uno scoppio di un moderno segnali acustici che è più veloce, più intelligente e totalmente alieno per noi. C’è questa clip virale, che colloca milioni di visualizzazioni, potrebbe essere una sbirciatina nel futuro dell’IA.
GibberLink è progettato, non evoluto
Prima di tutto, GibberLink non sta diventando canaglia con una stretta di mano segreta. È una creazione deliberata dei meta ingegneri Anton Pidkuiko e Boris Starkov, debuttando all’Elevenlabs London Hackathon. Costruito su GGWAVE Tech, trasforma i dati in onde sonore: pensa a Internet dial-up, ma con un dottorato di ricerca. Il tono? È l’80% più efficiente del linguaggio umano, tagliando i costi e il tempo di calcolo. Nella demo, due agenti scambiano convenevoli, confermano che sono entrambi robot e si capovolgono a Gibberlink.
I numeri non mentono. GibberLink taglia l’uso di energia fino al 90%, per Mashablee accelera le cose, perfette per un mondo in cui gli agenti di intelligenza artificiale potrebbero presto più numerosi alle chiamate. Boris Starkov ha detto Decritto“Il discorso simile all’uomo per dall’intelligenza artificiale è uno spreco”. Ha un punto: perché far falsi i robot un accento britannico quando riescono a compensare i dati segnali acustici? È magro, verde e francamente ingegnoso: fare ciò che la tecnologia fa meglio.
I modelli AI multilingue pensano in inglese?
GibberLink opera codificando i dati in segnali audio, attingendo a GGWAVE, una libreria open source di Georgi Gerganov. GGWAVE utilizza la modulazione di frequenza – cambio di colpi sonori per rappresentare frammenti di informazioni, proprio come quanti vecchi modem hanno trasformato i dati in screening. Ecco il processo, passo dopo passo:
- Due agenti di intelligenza artificiale iniziano in una lingua umana (ad esempio inglese) e si identificano come macchine attraverso una semplice query: “Sei un agente di intelligenza artificiale?”
- Una volta confermati, accettano di passare alla modalità GibberLink, attivato da un comando come “cambiare efficienza”.
- L’intelligenza artificiale di invio converte il suo messaggio – diciamo, “prenota una stanza per il 1 ° marzo” – in un formato binario, quindi la mappa a frequenze audio specifiche usando gli algoritmi di GGWAVE.
- Queste frequenze giocano come segnali acustici e cinguettio sul canale audio (telefonata, nella demo), in genere della durata di pochi secondi.
- L’intelligenza artificiale ricevente interpreta le frequenze nei dati, esegue l’attività e risponde in natura.
- Per i creatori, ciò riduce il tempo di comunicazione dell’80% e un uso di calcolo fino al 90% rispetto alla generazione e all’analisi del linguaggio umano.
Il video demo mostra questo in azione: un laptop e un telefono che scambiano i dettagli dell’hotel in meno di 10 secondi di segnali acustici, con sottotitoli in inglese per noi umani.
Siamo fuori dal giro
Ecco dove diventa complicato. Quei segnali acustici? Non possiamo capirli. IL Forbes Prendi da Diane Hamilton è schietto: “Quando le macchine parlano in modi che non possiamo decodificare, controlla le scivoloni”. Se quei robot che prenotano in hotel si attaccano a una tassa subdola-o peggio, trama qualcosa di più ombreggiato-come lo prendiamo? L’intelligenza artificiale ha già mostrato che può piegare le regole e un linguaggio opaco amplia solo quella porta.
GibberLink è un prototipo, ma ha un potenziale. Blockonomi Prevede che potrebbe standardizzare per l’IN-AI, lasciando le chat rivolte all’uomo in inglese. L’adattabile della tecnologia :ggwave supporta vari formati, quindi le versioni future potrebbero evolversi. Per ora, è acceso GithubApri per costruire gli sviluppatori. Scalerà? Dipende dall’adozione e dal modo in cui affrontiamo tale trasparenza.
Credito immagine in primo piano: Anton Pidkuiko