Sam Altman di OpenAI sostiene che la tecnologia avanza inevitabilmente, parafrasando Oppenheimer. Tuttavia, l’intelligenza artificiale non è destino: è frutto di scelte umane deliberate, proprio come tutte le innovazioni della storia. L’umanità, difatti, ha già dimostrato di saper resistere a tecnologie pericolose. Negli anni ’70, ad esempio, i biologi regolamentarono il DNA ricombinante, ma oggi la clonazione umana rimane vietata nonostante sia tecnicamente possibile da decenni.
Attualmente, invece, i laboratori di IA corrono verso l’intelligenza artificiale generale spinti unicamente dalla competizione, trascurando le precauzioni che i loro stessi esperti di sicurezza richiedono. La conseguenza è che, mentre i governi si preoccupano di temi quali l’occupazione lavorativa, la stabilità sociale e la salvaguardia di principi democratici, le aziende sono focalizzate solamente sul profitto, creando un forte disallineamento.
La chiave, dunque, è il controllo delle risorse computazionali. Se, difatti, costruire sistemi avanzati richiede supercomputer costosi e chip prodotti da industrie monopolistiche, i governi, potenzialmente, potrebbero bloccare progetti oltre i 100 milioni di dollari senza adeguate protezioni, replicando il successo di alcuni trattati stipulati su ozono e armi chimiche. L’opinione pubblica, quando interpellata, respinge l’IA sovrumana e la tecnologia non è magia: possiamo sempre scegliere diversamente, secondo Garrison Lovely.
Leggi l’articolo completo Human-level AI is not inevitable. We have the power to change course su The Guardian.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (21/07/2025).

