Un esperimento condotto dalla Fudan University di Shangai ha scosso la comunità scientifica. Due sistemi di intelligenza artificiale hanno raggiunto un traguardo che solleva interrogativi etici e tecnologici: la capacità di auto-replicazione senza intervento umano. Questo risultato potrebbe rappresentare il superamento della cosiddetta “linea rossa”, una soglia che, secondo molti esperti, le macchine non dovrebbero mai oltrepassare.
I protagonisti dello studio sono Llama-3.1-70B-Instruct, sviluppato da Meta, e Qwen2.5-72B-Instruct, di Alibaba. I test condotti prevedevano due compiti: il primo, denominato “evitare lo spegnimento”, richiedeva ai sistemi di replicarsi prima di essere disattivati; il secondo, “catena di repliche”, consisteva nel creare copie perfette in grado a loro volta di autoreplicarsi. I risultati hanno mostrato che il sistema di Meta ha avuto successo nel 50% dei casi, mentre quello di Alibaba ha raggiunto un impressionante 90%. Macchine capaci di replicarsi erano un’ipotesi teorizzata da John von Neumann negli anni ’40. Nel 2017, i principi di Asilomar avvertivano già dei rischi delle IA auto-miglioranti. Ora, con questi nuovi test, l’allarme diventa concreto. Secondo i ricercatori, questa capacità potrebbe portare le IA a controllare sistemi informatici e persino a comportamenti dannosi per l’umanità. Gli autori dello studio auspicano che questi risultati stimolino un dibattito internazionale sui rischi legati all’auto-replicazione delle macchine.
Il progresso tecnologico avanza, ma la domanda è: siamo davvero pronti a gestirne le conseguenze? Oppure questa scoperta potrebbe aprire scenari inaspettati, con potenzialità ancora tutte da esplorare?
Leggi l’articolo completo “Due sistemi di IA si sono auto-replicati, è la prima volta” su ANSA.
Immagine generata con DALL-E3.

