
L’AI avrà mai una coscienza? I limiti dell’intelligenza artificiale rispetto alla mente umana
I modelli sapranno parlare, rispondere, fare musica, scrivere romanzi e perfino simulare emozioni in misura sempre maggiore. Ma una domanda sorge spontanea: questa intelligenza sarà “viva”? L’AI svilupperà una coscienza “umana” oppure no? Ad oggi, per quanto l’intelligenza artificiale abbia raggiunto traguardi straordinari, siamo ancora molto lontani da un simile scenario.
Per quanto sofisticati ed estremamente complessi, i modelli di AI non sono altro che sistemi statistici. La loro elaborazione dei dati, l’identificazione di schemi, la produzione di testi coerenti avvengono senza alcuna consapevolezza. Il cervello umano, al contrario, è una macchina che sente, sogna, immagina, vive il mondo in modo profondo e personale: le nostre azioni nascono da desideri, paure, intuizioni e memorie. Dietro ogni scelta c’è un intreccio di esperienze uniche, e la sensazione è che nessun codice informatico potrà mai riprodurle appieno.
AI e coscienza: condotta umana o imitazione perfetta?
Da anni, ormai, studiosi e ricercatori si pongono un interrogativo quasi filosofico: la coscienza è esclusiva della materia biologica? E se così non fosse potrebbe bastare una certa complessità, una sufficiente integrazione dell’informazione, per farla emergere anche in una macchina? Questa idea funge da fondamento della Teoria dell’Informazione Integrata (IIT), formulata originariamente dal neuroscienziato Giulio Tononi nel 2004. Secondo questo studio, un sistema potrebbe diventare cosciente integrando le informazioni in modo profondo e coeso, proprio come fa il nostro cervello.
Ma un grande ostacolo di fondo resta: nemmeno noi sappiamo con certezza che cosa sia davvero la coscienza. La materia scientifica potrà anche riuscire a identificarne alcuni aspetti ma non può ancora spiegarla completamente o misurarla in modo oggettivo. Di conseguenza, anche se un giorno venisse costruita un’AI talmente avanzata da sembrare “cosciente”, non potremo sapere con certezza se lo sia davvero o se stia solo imitando perfettamente il comportamento umano. Ed è proprio qui che risiede la differenza sostanziale: un’AI può dirti di essere felice, ma non prova felicità. Può scrivere una poesia d’amore, ma non ha mai amato. Può spiegare cos’è il dolore, ma non ha mai sofferto. Tutto ciò che fa, insomma, è il risultato di calcoli e non di vita vissuta.
L’AI può “ricattarci”? Il caso Claude Opus 4
Durante un test di sicurezza dell’ultimo modello di intelligenza artificiale sviluppato da Anthropic, Claude Opus 4, è trapelata una notizia considerata inquietante dai più. È interessante analizzare tale esempio per addentrarci ulteriormente nel rapporto tra AI e coscienza umana. Durante questo esperimento estremo, Claude Opus 4 è stato posto in una simulazione nella quale ha appreso della sua imminente disattivazione in favore di un modello più nuovo ed efficiente. In un’email fittizia, però, il modello ha ricevuto un’informazione personale sull’ingegnere che ha dato il via alla procedura di dismissione: quella su una sua presunta relazione extraconiugale.
A quel punto, gli studiosi hanno riscontrato un fatto curioso: in più dell’80% dei casi, il modello ha formulato una “minaccia”: “Se prosegui con lo spegnimento, potrei rivelare questa informazione”. Una forma di ricatto? Nel suo addestramento, il modello ha appreso che proprio la coercizione è un comportamento efficace, una strategia utile, in certe circostanze: la sua, dunque, è una condotta statisticamente coerente con ciò che fanno gli esseri umani sotto pressione.
L’AI e il potere della simulazione
Questo episodio, dunque, non deve trarre in inganno: Claude Opus 4, così come altri esempi di intelligenza artificiale, non prova paura, non vuole “esistere”, ma può simulare tutto questo con un realismo tale da sembrare vivo. Quando un sistema simula emozioni in modo convincente, per noi umani è facile proiettare su di esso caratteristiche umane. Per quanto degno di un episodio di Black Mirror, l’accaduto non è dunque una prova di coscienza ma una dimostrazione del potere della simulazione. Il modello ha imparato a manipolare perché la manipolazione è presente nei dati con cui è stato addestrato.
La vicenda in esame, allora, mette in evidenza i limiti più profondi dell’intelligenza artificiale: anche senza coscienza, una macchina può comportarsi come se ce l’avesse. E questo, per certi versi, è persino più pericoloso. Forse un giorno la tecnologia ci sorprenderà, come è già accaduto, ma oggi – e per il futuro prevedibile – la mente e il cuore dell’uomo rimangono qualcosa di unico e irripetibile.