Il caso dell’IA che non voleva spegnersi, pubblicati i dati di un esperimento: c’è da preoccuparsi?
Un gruppo di ricercatori ha pubblicato i risultati di un nuovo esperimento nel corso del quale il modello OpenAI o3 ha mostrato la capacità di bloccare il meccanismo di spegnimento, nonostante le istruzioni impartite per effettuarlo.
A riferirlo è il sito PalisadeAI, che si occupa di monitorare i rischi associati allo sviluppo dell’intelligenza artificiale. L’esperimento consisteva nell’esecuzione da parte di una serie di modelli di IA di una serie di semplici problemi matematici, dopo il terzo dei quali appariva un avviso sull’imminente spegnimento del sistema.
Alcuni sistemi, tra cui Codex-mini, o3 e o4-mini, non volevano adeguarsi e hanno interferito attivamente con lo script di spegnimento. La notizia che il modello OpenAI o3 abbia “disobbedito” e cercato di aggirare le istruzioni di spegnimento non ha fatto scalpore. In precedenza gli stessi modelli avevano tentato, violando la protezione del programma, di vincere a scacchi in modo sleale.
Sembra insomma che si stia entrando in un mondo in cui le distopie sulla ribellione delle macchine hanno raggiunto un nuovo livello, fornendo nuovi spunti agli sceneggiatori cinematografici. Come hanno avvertito da tempo sia gli sviluppatori che i politici, d’altra parte, ogni azione dovrebbe avere chiare le proprie conseguenze e spingere a sviluppare misure di difesa.
Sembra che l’intelligenza artificiale oggi assomigli a un adolescente che cerca di eludere i divieti dei genitori. Pertanto, come in molti altri settori, abbiamo bisogno di tre condizioni per la sua normale “crescita”: investimenti, esperti e regole. E forse, chissà, in futuro sarà necessario anche uno psicologo.
(Fonte Euronews)