George Dritakis può essere felice con se stesso. In collaborazione con il suo team dell’Istituto nazionale per la ricerca in scienze e tecnologie digitali (Inria) di Sophia Antipolis (Alpi marittime), GraphDeco e un collega dell’Istituto Max Planck per l’informatica di Saarbrücken (Germania), hanno sviluppato un algoritmo in grado di surclassare i concorrenti di grandi aziende come Google e Nvidia, in un settore in cui eccellono, ovvero la visione artificiale. Più specificamente, questo nuovo software realizza un vecchio sogno: il rendering 3D di scene da semplici immagini.
In altre parole, bastano poche inquadrature di un oggetto, di un edificio o di una folla di persone per vederlo da qualsiasi angolazione, ingrandirlo, ruotarlo… Specialisti di effetti speciali nel cinema, utenti di videogiochi, architetti per visualizzare la loro progetti nel loro mondo Ambiente, agenzie immobiliari Per visionare le case, ingegneri robotici (per guidare la macchina meglio avere “piani” in 3D)… sono appassionati di questo lavoro.
Fino al 2020, i metodi consentivano di realizzare questa visualizzazione, ma richiedevano molto tempo di calcolo per ottenere risultati un po' imprecisi (mancanza di riflessi, dettagli invisibili, “buchi”…). Per iniziare, da due immagini riprese da angolazioni diverse ma con pixel comuni, viene calcolata una mappa di profondità. Ciò genera una nuvola sparsa di punti nello spazio, una sorta di fantasma trasparente della scena. Questa nuvola viene quindi condensata per incarnare il fantasma. Quindi, un passaggio computazionalmente costoso, da questi punti viene estratta una rete di piccoli triangoli, dove superfici, colori e texture vengono applicati per creare forme.
Dimostrazioni divertenti
Nel 2020, il team di Google sta rivoluzionando questo campo con Il suo metodo NeRF, basato su reti neurali artificiali. Questo oggetto, che è al centro dell’intelligenza artificiale contemporanea, viene utilizzato per codificare la scena in modo molto astratto. Questa crittografia richiede tempo, quarantotto ore di calcolo delle scene che servono come riferimento ai ricercatori per testare i loro algoritmi, ma la precisione delle immagini è molto migliore.
Nell'estate del 2023, Sofia Antipolis colpisce duro con stile “Splatting gaussiano 3D” o 3DGS, Per “esplosione di gaussiane 3D”. In trenta minuti si ottiene da cento immagini un modello tridimensionale che può essere visto da tutte le angolazioni alla velocità di cento immagini di alta qualità al secondo. È 100 volte superiore a Instant NGP di Nvidia, che a sua volta è 100 volte migliore di NeRF. “Non ho l'abitudine di propormi. Ma non avrei mai pensato che mi sarebbe capitata una situazione in cui, dopo più di vent'anni di lavoro dedicato a questo problema, potrei dire che è quasi risolto.Lo attesta George Dritakis, che insiste sul finanziamento pubblico per questo lavoro (INRIA e sovvenzioni del Consiglio europeo della ricerca in particolare).
Ti resta il 43,64% di questo articolo da leggere. Il resto è riservato agli abbonati.