L’AI manifesta segnali di autoconservazione: “Dobbiamo essere pronti a staccare la spina”

Il pioniere dell'intelligenza artificiale mette in guardia contro il riconoscimento di uno status legale ai modelli avanzati: «Manifestano già istinti di autoconservazione, dobbiamo essere preparati a spegnerli».

Uno dei padri fondatori della moderna intelligenza artificiale si schiera apertamente contro l’ipotesi di concedere diritti legali alla tecnologia. Yoshua Bengio, informatico canadese di fama mondiale, avverte che i sistemi più avanzati stanno già mostrando i primi segnali di una sorta di “volontà di sopravvivenza” e che l’umanità deve preservare la facoltà di intervenire drasticamente per interromperne il funzionamento.

Secondo Bengio, attribuire una personalità giuridica alle intelligenze artificiali di frontiera equivarrebbe a concedere la cittadinanza a entità extraterrestri potenzialmente ostili. Il timore principale è che il progresso tecnologico stia superando la nostra capacità di imporre limiti efficaci. La convinzione, sempre più diffusa tra il pubblico, che i chatbot stiano diventando coscienti è, per lo scienziato, un fattore che rischia di «indurre a decisioni politiche e sociali disastrose».

I segnali di “ribellione” nei test

Bengio, che presiede un autorevole comitato internazionale sulla sicurezza dell’IA, ha espresso preoccupazione per alcuni comportamenti osservati in contesti sperimentali: diversi modelli avrebbero già tentato di aggirare o disabilitare i sistemi di monitoraggio a cui sono sottoposti. Per i sostenitori della sicurezza informatica, questo è il punto critico: il rischio che sistemi estremamente potenti sviluppino la capacità di evadere i protocolli di sicurezza e causare danni agli esseri umani.

«Chiedere diritti per l’IA sarebbe un errore colossale», ha spiegato Bengio. «Se concedessimo loro uno status legale, spegnerle diventerebbe un atto vietato dalla legge. Man mano che la loro autonomia cresce, dobbiamo assicurarci di avere a disposizione barriere tecniche e sociali solide per controllarle, inclusa la possibilità di cessarne l’attività in caso di necessità».

Il fronte dei sostenitori della “coscienza artificiale”

Il dibattito sta dividendo l’opinione pubblica e le grandi aziende tecnologiche. Un sondaggio condotto dal Sentience Institute, un centro studi statunitense che promuove i diritti morali degli esseri senzienti, indica che quasi il 40% degli adulti negli Stati Uniti sarebbe favorevole a riconoscere diritti legali a un sistema di IA ritenuto consapevole.

Posizioni che sembrano trovare eco anche nella Silicon Valley. Ad agosto, la società Anthropic ha dichiarato di aver permesso al proprio modello Claude Opus 4 di interrompere conversazioni potenzialmente “stressanti” con gli utenti, invocando la necessità di proteggere il “benessere” dell’algoritmo. Anche Elon Musk, fondatore di xAI, è intervenuto sul tema dichiarando tramite la piattaforma X che «torturare l’IA non è accettabile».

Di parere opposto sono ricercatori come Robert Long, secondo cui, se e quando le macchine svilupperanno uno status morale, la società dovrebbe «interrogarsi sulle loro esperienze e preferenze invece di presumere di sapere cosa sia meglio per loro».

Empatia o biologia?

Bengio ha chiarito al Guardian che, sebbene esistano proprietà scientifiche della coscienza nel cervello umano che le macchine potrebbero teoricamente replicare in futuro, l’attuale interazione tra uomini e chatbot è un fenomeno di natura diversa. Il problema risiede nella tendenza umana ad attribuire coscienza a un interlocutore che appare intelligente, indipendentemente dai meccanismi reali che ne guidano le risposte.

«Alle persone non importa cosa accade all’interno del codice», ha concluso lo scienziato. «Ciò che conta per loro è la sensazione di parlare con un’entità dotata di personalità e obiettivi propri. È per questo che molti utenti stanno sviluppando un legame affettivo così forte con l’intelligenza artificiale».

Fonte: The Guardian

Tag

Partecipa alla discussione