Tokyo, Giappone – Yu Takagi non poteva credere ai suoi occhi. Seduto da solo alla sua scrivania un sabato pomeriggio di settembre, osservava con stupore l’intelligenza artificiale che decodificava l’attività cerebrale del soggetto per creare immagini di ciò che vedeva sullo schermo.
“Ricordo ancora quando vidi il primo [AI-generated] Pictures, ha detto ad Al Jazeera Takagi, un neuroscienziato di 34 anni e assistente professore all’Università di Osaka.
“Sono entrato in bagno e mi sono guardato allo specchio, ho visto la mia faccia e ho pensato: ‘Okay, è normale. Probabilmente non impazzirò'”.
Takagi e il suo team hanno utilizzato Stable Diffusion (SD), un modello di deep learning basato sull’intelligenza artificiale sviluppato in Germania nel 2022, per analizzare le scansioni cerebrali di soggetti sottoposti a test che mostrano fino a 10.000 immagini all’interno di una macchina per la risonanza magnetica.
Dopo che Takagi e il partner di ricerca Shinji Nishimoto hanno costruito un semplice modello per “tradurre” l’attività cerebrale in un formato leggibile, Stable Diffusion è stato in grado di creare immagini ad alta risoluzione che avevano una strana somiglianza con gli originali.
L’intelligenza artificiale può farlo anche se non è stata pre-renderizzata con immagini o addestrata in alcun modo per sintetizzare i risultati.
“Non ci aspettavamo davvero questo tipo di risultato”, ha detto Takagi.
Takagi ha sottolineato che l’hack, a questo punto, non rappresenta la lettura della mente: l’IA può solo riprodurre le immagini che la persona ha visto.
“Questa non è una lettura della mente”, ha detto Takagi. “Purtroppo ci sono molti malintesi nella nostra ricerca”.
“Non possiamo decifrare fantasie o sogni. Pensiamo che questo sia molto ottimista. Ma, naturalmente, c’è del potenziale per il futuro.”
Ma lo sviluppo ha comunque sollevato preoccupazioni su come questa tecnologia potrebbe essere utilizzata in futuro.
Nonostante la sua eccitazione, lo stesso Takagi ammette che queste preoccupazioni non sono prive di fondamento, dato il potenziale abuso da parte di persone con intenti malevoli o senza consenso.
“Per noi, i problemi di privacy sono la cosa più importante. Se un governo o un’istituzione può leggere la mente delle persone, è una questione molto delicata”, ha affermato Takagi. “Dovrebbero esserci discussioni ad alto livello per assicurarsi che ciò non accada. “
La ricerca di Takagi e Nishimoto ha generato molto scalpore nella comunità tecnologica, che è stata alimentata da incredibili sviluppi nell’intelligenza artificiale, inclusa la versione di ChatGPT, che produce un discorso simile a quello umano in risposta alle richieste degli utenti.
Il loro documento che descrive in dettaglio i risultati si colloca nell’1% più ricco per coinvolgimento su oltre 23 milioni di risultati di ricerca monitorati fino ad oggi, secondo Altmetric, una società di dati.
Lo studio è stato anche accettato alla conferenza Computer Vision and Pattern Recognition (CVPR), prevista per giugno 2023, un percorso congiunto per legittimare importanti scoperte nelle neuroscienze.
Tuttavia, Takagi e Nishimoto sono cauti nel farsi distrarre dalle loro scoperte.
Takagi sostiene che ci sono due barriere principali alla vera lettura della mente: la tecnologia di scansione del cervello e l’IA stessa.
Nonostante i progressi nelle interfacce neurali, inclusi i brain computer (EEG), che rilevano le onde cerebrali tramite elettrodi attaccati alla testa di una persona, e la fMRI, che misura l’attività cerebrale rilevando i cambiamenti associati al flusso sanguigno, gli scienziati ritengono che potrebbe essere possibile. lontano dall’esistenza. In grado di decifrare in modo accurato e affidabile esperienze visive immaginate.
Nella ricerca di Takagi e Nishimoto, le persone dovevano sedersi in uno scanner fMRI per un massimo di 40 ore, il che è costoso e richiede tempo.
In un documento del 2021, i ricercatori del Korea Advanced Institute of Science and Technology hanno notato che le interfacce neurali tradizionali “mancano della stabilità della registrazione cronica” a causa della natura morbida e complessa del tessuto neurale, che reagisce in modi insoliti quando viene a contatto con interfacce artificiali .
Inoltre, i ricercatori scrivono: “Le tecniche di registrazione esistenti generalmente si basano su percorsi elettrici per la trasmissione del segnale, che sono suscettibili al rumore elettrico dalle regioni circostanti. Poiché il rumore elettrico perturba notevolmente la sensibilità, non è facile ottenere segnali accurati da una regione target con alta sensibilità. lontano.”
Le attuali limitazioni dell’IA sono un secondo collo di bottiglia, anche se Takagi riconosce che queste capacità stanno avanzando di giorno in giorno.
“Sono ottimista sull’intelligenza artificiale, ma non sono ottimista sulla tecnologia del cervello”, ha detto Takagi. “Penso che questo sia il consenso tra i neuroscienziati”.
Il framework di Takagi e Nishimoto può essere utilizzato con dispositivi di scansione del cervello diversi dalla risonanza magnetica, come l’EEG, o tecnologie altamente invasive come gli impianti del cervello-computer sviluppati da Neuralink di Elon Musk.
Tuttavia, Takagi ritiene che attualmente ci siano poche applicazioni pratiche per i suoi esperimenti di intelligenza artificiale.
Tanto per cominciare, il metodo non può ancora essere trasferito a nuovi soggetti. Poiché la forma del cervello varia da individuo a individuo, non è possibile applicare direttamente un modello creato da persona a persona.
Ma Takagi vede un futuro in cui può essere utilizzato per scopi medici, comunicazioni o persino intrattenimento.
“È difficile prevedere quale potrebbe essere un’applicazione clinica di successo a questo punto, perché è ancora una ricerca molto esplorativa”, ha detto ad Al Jazeera Ricardo Silva, professore di neuroscienze computazionali all’University College di Londra e ricercatore presso l’Alan Turing Institute.
“Questo potrebbe essere un metodo aggiuntivo per sviluppare un marcatore per rilevare l’Alzheimer e valutarne la progressione valutando i modi in cui si possono rilevare anomalie persistenti nelle immagini dei compiti di navigazione visiva ricostruiti dall’attività cerebrale di un paziente”.
Silva condivide le preoccupazioni sull’etica della tecnologia che un giorno potrebbe essere utilizzata per una vera lettura della mente.
“La questione più urgente è fino a che punto un raccoglitore di dati dovrebbe essere obbligato a rivelare in dettaglio gli usi dei dati raccolti”, ha affermato.
“Una cosa è abbonarsi come un modo per scattare un’istantanea del tuo io più giovane per un futuro uso clinico… un’altra è usarla per attività secondarie come il marketing, o peggio, usarla in casi legali contro gli interessi di qualcuno.”
Tuttavia, Takagi e il suo partner non intendono rallentare le loro ricerche. Stanno già pianificando una seconda versione del loro progetto, che si concentrerà sul miglioramento della tecnologia e sulla sua applicazione ad altri approcci.
“Ora ci stiamo sviluppando molto meglio [image] disse Takagi. “E questo sta accadendo a un ritmo molto veloce.”