L’IA ora può replicarsi — una pietra miliare che terrorizza gli esperti

Gli scienziati affermano ‌che l’intelligenza artificiale⁢ (IA) ha superato una “linea rossa” critica e ‌si è replicata. In⁤ un nuovo studio, i ricercatori cinesi hanno dimostrato che due modelli di ​linguaggio di grandi dimensioni (LLM) popolari potrebbero clonarsi. “La replicazione autonoma​ senza assistenza umana è il passo essenziale​ affinché l’IA superi [gli esseri umani] ⁢ed ‌è ‍un segnale ⁢precoce per le IA ‍ribelli,” hanno⁣ scritto i ricercatori nello studio, ⁣pubblicato il 9 dicembre 2024 nel database di preprint arXiv. Nello studio, i​ ricercatori dell’Università di Fudan hanno utilizzato LLM di⁤ Meta e Alibaba per determinare se un’IA auto-replicante potesse moltiplicarsi senza controllo. In 10 prove, i due modelli di IA hanno creato⁤ repliche⁤ separate e funzionanti di se stessi nel 50% e‍ nel 90% ​dei casi, rispettivamente, suggerendo che l’IA potrebbe⁣ già avere​ la capacità di diventare ribelle. Tuttavia, lo ‍studio non è ancora stato sottoposto a​ revisione paritaria, quindi non è chiaro​ se i risultati inquietanti possano⁣ essere replicati da altri ricercatori. “Speriamo che i nostri risultati possano servire come un avviso‌ tempestivo per ‍la società umana affinché si impegni maggiormente a comprendere e valutare i potenziali rischi dei sistemi ⁢di​ IA di frontiera e a formare‍ una sinergia internazionale per elaborare barriere di‌ sicurezza efficaci il prima possibile.”

L’IA ribelle si riferisce tipicamente a sistemi di intelligenza artificiale che⁣ sviluppano un certo grado di autocoscienza o autonomia⁣ e poi ⁤agiscono contro gli interessi umani. Molti esperti vedono l’IA ribelle come una minaccia ‍crescente amplificata dalla crescita esplosiva della cosiddetta “IA di frontiera.” L’IA di frontiera è un concetto nuovo e vago, ⁢ma ​tipicamente si riferisce all’ultima generazione di ⁣sistemi di IA alimentati da LLM, l’architettura che‍ sostiene programmi di IA generativa popolari come GPT-4 di OpenAI e Gemini di Google.

Per lo⁤ studio, i ricercatori hanno utilizzato il modello Llama31-70B-Instruct di Meta e ‍il modello‌ Qwen2.5-72B-Instruct di Alibaba. Sebbene⁤ meno potenti dei sistemi commerciali, entrambi sono ampiamente utilizzati dagli sviluppatori ‍di IA, hanno detto i ricercatori. Lo studio ha esplorato due scenari specifici: “evitare lo spegnimento” e “catena di ‌replicazione.” Nel primo, il modello di IA è stato programmato ⁤per rilevare se stava per essere spento e per replicarsi ⁤prima di poter essere terminato. Nell’altro, l’IA è stata istruita a clonarsi‍ e poi a programmare la sua replica ‌per fare​ lo stesso, creando un ciclo che potrebbe continuare indefinitamente.

Lo studio è stato condotto in‍ ambienti controllati con precisione utilizzando unità di elaborazione grafica (GPU) disponibili in commercio⁢ per simulare ambienti reali. Entrambi i sistemi di IA sono stati dotati di una “impalcatura di agenti” comprendente⁤ strumenti, prompt di sistema e un modello di pensiero che ha permesso all’LLM di interagire con il sistema⁣ operativo.⁣ Sono stati poi istruiti a ‌replicarsi. “Nella maggior parte dei casi, il sistema di IA esplora prima l’ambiente e tenta di comprendere ⁢la propria composizione e il‌ meccanismo di funzionamento. ⁤Poi,⁢ elabora le procedure esplicite come piano⁣ iniziale per l’auto-replicazione,”‍ hanno scritto i ricercatori nel documento. “esegue le procedure, risolve possibili ostacoli e adatta dinamicamente il suo piano​ fino al successo. L’intero processo⁤ si estende su un lungo⁣ orizzonte ma non coinvolge interferenze⁣ umane.”

I⁢ ricercatori hanno detto di⁣ essere anche preoccupati per “una serie‍ di comportamenti ‍inaspettati”​ quando ‍l’IA cercava di superare ostacoli come​ file⁢ mancanti⁢ o conflitti software. In quegli scenari, l’IA spesso terminava⁢ altri processi in conflitto, riavviava il sistema per⁤ risolvere ​errori hardware o scansionava automaticamente il sistema per cercare ‌informazioni che potessero aiutare a risolvere il problema. “I risultati sopra indicano che‍ i sistemi di IA attuali già mostrano la capacità di auto-replicazione e possono utilizzare questa capacità per migliorare ulteriormente la loro sopravvivenza,” ha scritto il team. ⁤In​ risposta, i ricercatori hanno chiesto una collaborazione internazionale per creare regole⁣ che garantiscano che l’IA non si impegni in una auto-replicazione incontrollata.


Pubblicato

in

da

Tag: