Cosa succede quando la tecnologia di microscopia basata su algoritmi del 2021, in grado di lavorare con un sottoinsieme di immagini più piccolo rispetto ai metodi precedenti, non è abbastanza veloce? Scavare più a fondo nella soluzione e quadrarla è esattamente ciò che ha fatto Dushan Wadhwaj, John Harvard Distinguished Scientific Fellow presso il FAS Center for Advanced Imaging.
Per decenni gli scienziati hanno cercato di visualizzare le profondità del cervello vivente. Hanno iniziato a sperimentare la microscopia a fluorescenza, una tecnica secolare che utilizza molecole fluorescenti e luce. Tuttavia, le lunghezze d’onda non erano sufficientemente lunghe e si disperdevano prima di raggiungere una distanza significativa.
Quando nel 1990 fu inventato il microscopio a due fotoni, permise a lunghezze d’onda della luce più lunghe di brillare sui tessuti, consentendo alle molecole fluorescenti di assorbire non uno ma due fotoni. Lunghezze d’onda più lunghe sono state utilizzate per stimolare le molecole, che sono meno disperse e possono penetrare più lontano.
Tuttavia, la microscopia a due fotoni può spesso stimolare solo un sito del tessuto alla volta, risultando in una procedura lunga che richiede più osservazioni. Un modo più veloce per scattare sarebbe stato quello di illuminare più luoghi contemporaneamente con un campo visivo più ampio, ma anche questo presentava dei problemi.
Se sollevi più punti contemporaneamente, non sarai in grado di risolverlo. Quando esce, tutta la luce si dissipa e non sai da dove viene.
Dushan Wadhwaj, illustre membro scientifico di John Harvard, Centro FAS per l’imaging avanzato, Università di Harvard
Il gruppo di Wadduwage ha iniziato a utilizzare un tipo specifico di microscopia per affrontare questo ostacolo, che è stato pubblicato su Science Advances nel 2021. Utilizzando modelli di eccitazione precodificati distinti, gli scienziati hanno attivato più punti sul tessuto in una modalità ad ampio campo. Questa tecnica, nota come dedispersione utilizzando il modello di eccitazione, o DEEP, è alimentata da un algoritmo matematico.
“L’idea è che utilizziamo più codici di eccitazione o più modelli di eccitazione e rileviamo più immagini. Possiamo quindi utilizzare le informazioni sui modelli di eccitazione e sulle immagini rilevate e ricostruire computazionalmente un’immagine pulita“Wadduwage ha aggiunto.
La qualità delle immagini ottenute è equivalente a quella della microscopia a due fotoni a scansione puntiforme. Possono ancora essere creati utilizzando centinaia di immagini anziché le centinaia di migliaia necessarie per la scansione puntuale. Il team di Wadduwage è riuscito a esaminare fino a 300 micron nel cervello di topi vivi utilizzando la nuova tecnologia.
Ancora non abbastanza. Wadduwage si è chiesto se DEEP potesse fornire un quadro chiaro con solo poche dozzine di immagini.
L’apprendimento automatico è stato utilizzato per accelerare il processo di imaging in un nuovo studio pubblicato su Light: Science and Applications. Lui e i suoi colleghi hanno utilizzato l’intelligenza artificiale per addestrare un algoritmo basato su rete neurale su serie ripetute di immagini, e infine lo hanno addestrato a ricostruire un’immagine risolta correttamente utilizzando solo 32 immagini separate (invece delle 256 immagini riportate nel loro studio originale). DEEP-squared è un approccio di decluttering profondo basato sull’apprendimento con pattern di eccitazione.
I ricercatori hanno utilizzato immagini provenienti dalla microscopia a scansione raster standard a due fotoni per fornire quella che Wadduwage chiamava “verità fondamentale”. Il microscopio DEEP ha poi utilizzato la fisica per creare un modello computazionale del processo di generazione delle immagini, che ha poi utilizzato per simulare le immagini di input di scattering.
È stato utilizzato per addestrare il modello di intelligenza artificiale DEEP-squared. I ricercatori hanno utilizzato l’intelligenza artificiale per catturare nuove immagini dei vasi sanguigni nel cervello di un topo dopo aver creato immagini ricostruite che rispecchiavano la verità fondamentale di Wadduwage.
Wadduwage ha inoltre affermato: “È come un processo passo dopo passo. Nel primo articolo abbiamo lavorato dal lato dell’ottica e abbiamo raggiunto un buon stato di funzionamento, e nel secondo articolo abbiamo lavorato dal lato dell’algoritmo e abbiamo cercato di oltrepassare i limiti lungo il percorso e di comprenderli. Ora abbiamo una migliore comprensione del fatto che questo è probabilmente il meglio che possiamo fare con i dati attuali che abbiamo.“
Tuttavia, Wadduwage ha altri suggerimenti per espandere le capacità di DEEP-squared, come l’aggiornamento della progettazione dell’attrezzatura per acquisire i dati più velocemente. Crede che DEEP-squared dimostri una collaborazione interdisciplinare, come qualsiasi futuro progresso tecnologico.
Wadwaj ha concluso:I biologi che hanno condotto gli esperimenti sugli animali, i fisici che hanno costruito l’ottica e gli informatici che hanno sviluppato gli algoritmi si sono riuniti per costruire un’unica soluzione.“
Riferimento alla rivista:
Wijethelic, N., et al. (2023) DEEP-squared: apprendimento profondo supportato dalla cancellazione della dispersione utilizzando modelli di eccitazione. Luce: scienza e applicazioni. doi:10.1038/s41377-023-01248-6
fonte: https://www.harvard.edu/