
Intelligenza artificiale e “allucinazioni”: quando e perché l’AI inventa la realtà
Questo fenomeno è paragonabile ad una sorta di “allucinazione” da parte dell’AI, un termine che sta prendendo piede anche in ambito accademico. Ma, a conti fatti, non si tratta di un’esperienza visionaria come la intenderebbe un essere umano: l’allucinazione in un modello linguistico come ChatGPT è un errore sistemico in cui l’AI genera risposte che sembrano plausibili e coerenti… ma che non sono vere.
Le allucinazioni dell’intelligenza artificiale rappresentano un effetto collaterale del modo stesso in cui questi modelli apprendono e operano. È piuttosto facile riconoscerle dopo che ci si è cascati, ma è altrettanto difficile prevenirle se non si conoscono bene le situazioni tipiche in cui tendono a manifestarsi. L’AI non ci inganna di proposito: sbaglia perché è costruita per completare frasi, non per dire necessariamente il vero. È compito nostro, in qualità di umani pensanti, discernere ciò che i sistemi dicono bene da ciò che dicono giusto.
L’intelligenza artificiale inventa la realtà: alcuni esempi
Pensiamo alla domanda “chi ha vinto il Premio Nobel per la Letteratura nel 2024?”: un modello non aggiornato potrebbe generare un nome plausibile, magari uno scrittore spesso candidato in passato, ma la risposta sarà presumibilmente falsa. Si tratterà soltanto di un’ipotesi travestita da verità. Se invece chiediamo “chi è stato il primo presidente donna negli Stati Uniti?”, l’uomo sa che al momento nessuna donna ha mai ricoperto tale carica: l’AI potrebbe citare qualche nome noto della politica americana, come Elizabeth Warren o Hillary Clinton, senza che vi sia alcuna base reale nella risposta. Un’altra situazione plausibile è quella in cui il modello inventa la risposta quando gli mancano le fonti. Esempio: “quali sono i romanzi scritti da Leonardo da Vinci?”. Non essendocene nemmeno uno l’AI andrà a rispondere fluentemente anche a costo di menzionare contenuti mai esistiti.
Terreno fertile per le allucinazioni è l’eccesso di generalizzazione: se chiediamo se le balene siano pesci, i modelli meno raffinati potrebbero tendere ad annuire per semplificare concetti complessi, sulla base della frequenza con cui le parole “balena” e “pesce” compaiono insieme in testi poco tecnici. Un’ultima curiosità: se domandiamo all’intelligenza artificiale di indicare le fonti a supporto di una certa teoria, questa potrebbe rimandarci ad articoli, libri e nomi che non esistono. Provare per credere: l’AI crea qualcosa che sembra una fonte plausibile combinando nomi, titoli e riviste statisticamente compatibili. In pratica, “inventa” riferimenti credibili ma non necessariamente autentici.
Da dove nasce la tendenza a “inventare” e perché è un problema
L’AI, dunque, inventa la realtà e ciò accade più spesso di quanto immaginiamo. Ma perché? La ragione risiede nel funzionamento dei modelli di linguaggio: un sistema come ChatGPT non ha una comprensione del mondo, delle emozioni o della verità nel senso umano del termine. Il suo scopo è quello di predire la parola successiva in una frase: in un dato contesto seleziona la sequenza di parole che ha la maggiore probabilità di seguire in base a ciò che ha “visto” nel suo addestramento. Quando l’AI è interrogata su un argomento su cui possiede dati incompleti, obsoleti o contraddittori, oppure quando è spinta fuori dal suo “territorio di competenza”, tende a riempire i vuoti con ciò che sembra sensato. Ed è proprio qui che entra in gioco l’allucinazione.
Il problema dell’intelligenza artificiale è la sua natura persuasiva: non dice che potrebbe sbagliarsi ma si esprime con autorevolezza. Questo può portare facilmente alla disinformazione, soprattutto in mancanza di un’adeguata verifica. E in alcuni ambiti queste allucinazioni possono avere conseguenze drammatiche: pensiamo ad esempio alla medicina o alla finanza. Per contrastare il fenomeno, soprattutto in contesti professionali, la supervisione e il controllo umano rimangono essenziali. Mantenere i modelli il più possibile aggiornati con dati recenti è determinante per ridurre il margine di errore. La tentazione di credere ad ogni parola è forte, ma sta a noi verificare se la storia che l’AI riporta è reale o solo ben raccontata: ecco perché l’intelligenza artificiale va trattata più come uno strumento da consultare che come un oracolo.