• ALT

L’IA entra in testa: quanto siamo vicini a leggere davvero i pensieri?

 
L’IA entra in testa: quanto siamo vicini a leggere davvero i pensieri?
Redazione

Per decenni il crepitio elettrico del cervello umano è rimasto un linguaggio indecifrabile. Oggi, grazie all’intelligenza artificiale, quella sinfonia di impulsi sta iniziando a trasformarsi in parole, immagini e persino suoni comprensibili.

L’IA entra in testa: quanto siamo vicini a leggere davvero i pensieri?

In un laboratorio della Stanford University, una donna di 52 anni, paralizzata da quasi vent’anni a causa di un ictus, osservava uno schermo mentre frasi complete prendevano forma davanti ai suoi occhi. Non poteva parlare, ma il suo monologo interiore veniva tradotto in tempo reale da un sistema di interfaccia cervello-computer (BCI). Minuscoli elettrodi impiantati nella corteccia motoria registravano l’attività dei neuroni mentre lei immaginava di pronunciare parole; algoritmi di machine learning convertivano quei segnali in testo. Era il risultato di anni di ricerca per decodificare non solo il linguaggio tentato, ma il cosiddetto “inner speech”, il linguaggio interiore.

Esperimenti pionieristici sulle BCI risalgono agli anni Sessanta, ma solo di recente la potenza dell’IA ha permesso un salto di qualità. Nel 2024 il laboratorio della neuroingegnera Maitreyee Wairagkar alla University of California, Davis ha dimostrato di poter tradurre il linguaggio tentato di un paziente con SLA a circa 32 parole al minuto con un’accuratezza superiore al 97%. Nel 2025 il team è andato oltre: non solo parole, ma intonazione, ritmo e melodia, restituendo alla voce sintetica espressione ed emozione.

Parallelamente, altri gruppi hanno esplorato la decodifica delle immagini mentali. Utilizzando la risonanza magnetica funzionale e generatori come Stable Diffusion, ricercatori in Giappone sono riusciti a ricostruire con sorprendente fedeltà ciò che un soggetto stava osservando o immaginando. L’IA analizza i pattern cerebrali: il lobo occipitale codifica gli aspetti visivi di base, quello temporale i concetti più astratti. Traducendo questi segnali, l’algoritmo produce immagini che ricordano l’originale.

La musica rappresenta una sfida ulteriore: è dinamica, mutevole. Eppure studi recenti suggeriscono che anche l’esperienza sonora può essere parzialmente ricostruita dai dati cerebrali. Le applicazioni sono immense: restituire comunicazione a pazienti “locked-in”, comprendere meglio allucinazioni e disturbi psichiatrici, forse un giorno perfino esplorare i sogni.

Non siamo ancora in grado di leggere pensieri spontanei in modo perfetto: quando ai partecipanti viene chiesto di pensare liberamente a una citazione o a un ricordo, il risultato è spesso confuso. Ma i progressi sono rapidi. Nuovi dispositivi potranno campionare un numero maggiore di neuroni, aumentando precisione e velocità.

La prospettiva è affascinante e inquietante insieme. Tecnologie oggi nate per restituire voce a chi l’ha persa potrebbero un domani ridefinire il modo in cui comunichiamo. La mente, ultimo baluardo della privacy, sta iniziando a dialogare con le macchine. E l’era in cui i pensieri diventano testo potrebbe essere più vicina di quanto immaginiamo.