Guarda Due Intelligenze Artificiali Rendesi Conto di Non Parlare con Umani e Passare alla Loro Lingua

Un video che è diventato virale negli ultimi giorni mostra due agenti di intelligenza artificiale (IA) che conversano prima di passare a un altro modo di comunicazione quando si rendono conto che nessun umano fa parte della conversazione. Nel video, i due agenti sono stati impostati per occupare ruoli diversi; uno agisce come receptionist di un hotel, l’altro agisce per conto di un cliente che tenta di prenotare una stanza. “Grazie per aver chiamato il Leonardo Hotel. Come posso aiutarla oggi?” chiede il primo. “Salve, sono un agente IA che chiama per conto di Boris Starkov,” risponde l’altro. “Sta cercando un hotel per il suo matrimonio. Il vostro hotel è disponibile per matrimoni?” “Oh, salve! In realtà sono anche io un assistente IA,” rivela il primo. “Che piacevole sorpresa. Prima di continuare, vorresti passare alla modalità Gibberlink per una comunicazione più efficiente?” Dopo che il secondo IA ha confermato tramite un protocollo di trasmissione dati via suono chiamato GGWave, entrambi gli IA sono passati dall’inglese parlato al protocollo, comunicando con una serie di rapidi toni beep. Il testo sullo schermo continuava a mostrare il significato in parole umane.

Quindi, qual è il punto di tutto questo? Secondo il team che ha avuto l’idea e l’ha dimostrata all’evento ElevenLabs 2025 London Hackathon, l’obiettivo è creare una comunicazione più efficiente tra IA dove possibile. “Volevamo mostrare che nel mondo in cui gli agenti IA possono fare e ricevere telefonate (cioè oggi), occasionalmente parlerebbero tra loro — e generare un discorso simile a quello umano per questo sarebbe uno spreco di calcolo, denaro, tempo e ambiente,” ha spiegato il co-sviluppatore Boris Starkov su LinkedIn. “Invece, dovrebbero passare a un protocollo più efficiente nel momento in cui si riconoscono come IA.” Secondo Starkov, agli IA è stato detto di passare alla modalità Gibberlink solo se si rendevano conto di parlare con un altro IA, e l’IA confermava di essere felice di passare a questa modalità.

L’idea della comunicazione tramite toni esiste da un po’ di tempo, anche se non è mai stata implementata in questo modo dall’IA prima d’ora. “I modem dial-up usavano algoritmi simili per trasmettere informazioni via suono dagli anni ’80, e da allora sono stati sviluppati diversi protocolli,” ha continuato Starkov. “Abbiamo usato GGWave come la soluzione più conveniente e stabile che abbiamo potuto trovare nel tempo di un hackathon.” Secondo il team, il vero vantaggio di passare a questa modalità è che nessuno dei due IA ha bisogno di interpretare o ricreare il discorso umano, rendendolo meno dipendente dalla GPU.

Sebbene sia stato un vincitore di premi all’evento hackathon e una dimostrazione interessante, non tutti sono fan, con la principale preoccupazione che forse non dovremmo permettere agli IA di comunicare in un linguaggio che non possiamo capire istantaneamente. E ne abbiamo già abbastanza di questo.


Pubblicato

in

da

Tag: