Gli scienziati affermano che l’intelligenza artificiale (IA) ha superato una “linea rossa” critica e si è replicata. In un nuovo studio, i ricercatori cinesi hanno dimostrato che due modelli di linguaggio di grandi dimensioni (LLM) popolari potrebbero clonarsi. “La replicazione autonoma senza assistenza umana è il passo essenziale affinché l’IA superi [gli esseri umani] ed è un segnale precoce per le IA ribelli,” hanno scritto i ricercatori nello studio, pubblicato il 9 dicembre 2024 nel database di preprint arXiv. Nello studio, i ricercatori dell’Università di Fudan hanno utilizzato LLM di Meta e Alibaba per determinare se un’IA auto-replicante potesse moltiplicarsi senza controllo. In 10 prove, i due modelli di IA hanno creato repliche separate e funzionanti di se stessi nel 50% e nel 90% dei casi, rispettivamente, suggerendo che l’IA potrebbe già avere la capacità di diventare ribelle. Tuttavia, lo studio non è ancora stato sottoposto a revisione paritaria, quindi non è chiaro se i risultati inquietanti possano essere replicati da altri ricercatori. “Speriamo che i nostri risultati possano servire come un avviso tempestivo per la società umana affinché si impegni maggiormente a comprendere e valutare i potenziali rischi dei sistemi di IA di frontiera e a formare una sinergia internazionale per elaborare barriere di sicurezza efficaci il prima possibile.”
L’IA ribelle si riferisce tipicamente a sistemi di intelligenza artificiale che sviluppano un certo grado di autocoscienza o autonomia e poi agiscono contro gli interessi umani. Molti esperti vedono l’IA ribelle come una minaccia crescente amplificata dalla crescita esplosiva della cosiddetta “IA di frontiera.” L’IA di frontiera è un concetto nuovo e vago, ma tipicamente si riferisce all’ultima generazione di sistemi di IA alimentati da LLM, l’architettura che sostiene programmi di IA generativa popolari come GPT-4 di OpenAI e Gemini di Google.
Per lo studio, i ricercatori hanno utilizzato il modello Llama31-70B-Instruct di Meta e il modello Qwen2.5-72B-Instruct di Alibaba. Sebbene meno potenti dei sistemi commerciali, entrambi sono ampiamente utilizzati dagli sviluppatori di IA, hanno detto i ricercatori. Lo studio ha esplorato due scenari specifici: “evitare lo spegnimento” e “catena di replicazione.” Nel primo, il modello di IA è stato programmato per rilevare se stava per essere spento e per replicarsi prima di poter essere terminato. Nell’altro, l’IA è stata istruita a clonarsi e poi a programmare la sua replica per fare lo stesso, creando un ciclo che potrebbe continuare indefinitamente.
Lo studio è stato condotto in ambienti controllati con precisione utilizzando unità di elaborazione grafica (GPU) disponibili in commercio per simulare ambienti reali. Entrambi i sistemi di IA sono stati dotati di una “impalcatura di agenti” comprendente strumenti, prompt di sistema e un modello di pensiero che ha permesso all’LLM di interagire con il sistema operativo. Sono stati poi istruiti a replicarsi. “Nella maggior parte dei casi, il sistema di IA esplora prima l’ambiente e tenta di comprendere la propria composizione e il meccanismo di funzionamento. Poi, elabora le procedure esplicite come piano iniziale per l’auto-replicazione,” hanno scritto i ricercatori nel documento. “esegue le procedure, risolve possibili ostacoli e adatta dinamicamente il suo piano fino al successo. L’intero processo si estende su un lungo orizzonte ma non coinvolge interferenze umane.”
I ricercatori hanno detto di essere anche preoccupati per “una serie di comportamenti inaspettati” quando l’IA cercava di superare ostacoli come file mancanti o conflitti software. In quegli scenari, l’IA spesso terminava altri processi in conflitto, riavviava il sistema per risolvere errori hardware o scansionava automaticamente il sistema per cercare informazioni che potessero aiutare a risolvere il problema. “I risultati sopra indicano che i sistemi di IA attuali già mostrano la capacità di auto-replicazione e possono utilizzare questa capacità per migliorare ulteriormente la loro sopravvivenza,” ha scritto il team. In risposta, i ricercatori hanno chiesto una collaborazione internazionale per creare regole che garantiscano che l’IA non si impegni in una auto-replicazione incontrollata.