Accesso

​​​​​​​​​​​​​​​​​​​

 
lunedì 12 dicembre 2016
144
mercoledì 6 aprile 2022
Virtual Reality Lab
No
Software Development and Virtual Reality

​​​

Questo Laboratorio possiede strumenti e competenze per lo sviluppo di tecniche ed applicazioni immersive e semi-immersive che evidenzino le capacità e i benefici della Realtà Virtuale, con particolare riguardo alla capacità di interazione della persona nell’ambiente virtuale.
Development of syntethic environment & virtual reality tools, Simulator environments & virtual reality
Laboratorio di Realtà Virtuale

 

 

Laboratorio di Realtà Virtuale<img alt="" src="http://webtest.cira.it/PublishingImages/LRV-header.png" style="BORDER:0px solid;" />https://www.cira.it/it/infrastrutture-di-ricerca/laboratorio-di-realtà-virtuale/Laboratorio di Realtà VirtualeLaboratorio di Realtà Virtuale<p>​​​<br></p><p style="text-align:justify;">Il Laboratorio di Realtà Virtuale opera dal 1999 per il miglioramento delle tecniche di base, applicative e dei dispositivi di interfacciamento, e promuove la diffusione e l'inserimento della tecnologia nell'industria, non soltanto aeronautica, attraverso la conduzione di progetti di ricerca e progetti pilota con l'industria e la realizzazione di applicazioni proof-of-concept.</p><p style="text-align:justify;">Ad oggi le tematiche applicative più trattate sono state l'assemblaggio e la manutenzione in virtuale per addestramento e Design-for-Maintainability, in cui meglio che in altre tipologie di applicazioni, si è potuto mettere in evidenza il plus della Realtà Virtuale - la capacità di interagire manualmente - rispetto a una semplice visualizzazione immersiva, pur accattivante.</p><p style="text-align:justify;">Le tematiche di R&D hanno puntato alla messa a punto di tecniche e all'implementazione di corrispondenti moduli software tesi a realizzare ambienti virtuali realistici e verosimili. Tra queste, la messa a punto di tecniche speciali di guida all'assemblaggio immersivo interattivo, l'impiego della simulazione della dinamica dei corpi rigidi per il realismo comportamentale degli ambienti virtuali e il suo impiego anche per l'interazione manuale diretta, l'interfacciamento a dispositivi di grounded force-feedback anche per il grasp, l'impiego di dispositivi di input contactless (camera-based Natural User Interface), la messa a punto di meccanismi di consultazione della documentazione tecnica all'interno dell'ambiente virtuale immersivo, lo sviluppo di un sistema software di ricerca per l'implementazione delle tecniche studiate e per la sperimentazione dell'approccio distribuito/cluster alla visualizzazione tridimensionale ed, infine, l'interfacciamento diretto al CAD CATIA con un innovativo approccio basato su plug-in.</p><p style="text-align:justify;">Le attività in corso riguardano l'impiego efficace di dispositivi di tipo Natural User Interface, come il Leap Motion Controller e il Kinect, per input di tracciamento contactless di mani e corpo, anche di più persone contemporaneamente, e l'estensione al collaborativo (2+ persone) delle applicazioni di Realtà Virtuale, sia su base locale (le persone sono co-locate in Laboratorio) che, successivamente, di distribuzione geografica.</p><p style="text-align:justify;">Relativamente al software, ViRstperson è il sistema di runtime sviluppato e utilizzato in Laboratorio per le applicazioni di Realtà Virtuale, configurabile dall'utente sì esperto ma non necessariamente un programmatore, che ospita e mette a disposizione tutte le tecniche sviluppate dal Laboratorio di Realtà Virtuale del CIRA nella sua attività pluriennale. Esso si interfaccia direttamente ai dispositivi di interfacciamento uomo-macchina (caschi stereoscopici e sistemi di proiezione multi-parete, guanti e sistemi di tracciamento di mani e corpo con particolare riguardo ai recenti dispositivi Natural User Interface come il Kinect e il Leap Motion Controller) e permette l'importazione seamless dei modelli 3D di prodotto direttamente dal sistema CAD CATIA attraverso un apposito plug-in, oltre che da innumerevoli formati di file per modelli 3D poligonali.</p><p style="text-align:justify;">Le caratteristiche principali di ViRstperson sono di seguito riassunte:</p><ul style="text-align:justify;"><li><p>Grafica: hardware shadow mapping, specchi, riflessioni ambientali, bump mapping, animazioni, switch di materiali e oggetti per confronto di configurazioni;</p></li><li><p>Simulazione della dinamica dei corpi rigidi basata sul motore ODE (a.k.a. OpenDE), con sonificazione spazializzata delle collisioni;</p></li><li><p>Giunti guida dinamici come maccanismo di snap di ausilio all'assemblaggio;</p></li><li><p>Remote-desktop-on-a-texture, e video background anche stereoscopico;</p></li><li><p>Visualizzazione in cluster, multicanale, stereoscopica (attiva, passiva);</p></li><li><p>Interazione manuale a due mani, legame molla-smorzatore (Borst-Indugula) tra le mani tracked e quelle corrispondenti della fisica;</p></li><li><p>Interfacciamento a una varietà di dispositivi VR (guanti, tracker, …) incluso il Leap Motion Controller (interfacciamento al Kinect v2 in corso);</p></li><li><p>Diversi meccanismi di comunicazione e di controllo dell'applicazione dall'esterno (input da dispositivi via shared memory o socket UDP, comandi esterni via protocollo OSC su UDP);</p></li><li><p>Importa dati 3D dai più diffusi formati poligonali, come VRML, 3DS, OBJ, Collada e molti altri (tutti i formati supportati dalle librerie Plib e Assimp);</p></li><li><p>Plug-in per CATIA v5, appositamente sviluppato, genera tutti i file di input per importare nella simulazione in VR un assemblato CAD;</p></li><li><p>3D GUI (layout di input da file FLTK Fluid), interazione manuale basata su dinamica;</p></li><li><p>Orientato all'interazione manuale diretta in VR in prima persona;</p></li><li><p>Opportunità di implementare sperimentalmente nuove funzionalità per velocizzare il percorso dalla ricerca alla sperimentazione prototipale e al deployment.</p></li></ul><p style="text-align:justify;">Nel Laboratorio di Realtà Virtuale del CIRA, sono disponibili applicazioni prototipali di addestramento alla manutenzione applicabili al product support e alla Design-for-Maintainability basate su ViRstperson, che dimostrano le tecniche di interazione manuale naturale e simulazione comportamentale fisicamente credibile.</p><p style="text-align:justify;">Entro la fine del 2017 sarà realizzato un simulatore immersivo multi-sensoriale (visivo, aptico, vibroacustico) di cabina passeggeri di regional aircraft e business jet, e verrà realizzata l'estensione del simulazione di manutenzione in prima persona alla collaborazione tra più persone nello stesso ambiente virtuale, che include un avanzato sistema di tracciamento multi-persona contactless basato su un sistema di più Kinect v2.</p><h3>Realtà Virtuale:</h3><ul style="text-align:justify;"><li><p>doppia area di simulazione, immersiva (una persona) e semi-immersiva (fino a 5 posti-spettatori a sedere) utilizzabili congiuntamente in modo sincronizzato;</p></li><li><p>Disponibilità applicazioni dimostrative prototipali di interazione manuale diretta per la manutenzione virtuale.</p></li></ul><h3>Augmented Reality:</h3><ul style="text-align:justify;"><li><p>Setup wearable con visore monoculare e wearable computer per dimostrazione di un'applicazione di assistenza alla manutenzione view-dependent con algoritmo di pose estimation 2.5D.</p></li></ul><h3>Realtà Virtuale:</h3><ul><li><p>Sistema di proiezione stereoscopico passivo schermo a due pareti:<br></p></li><ul><li><p>verticale di dimensioni 4m x 2.25m e risoluzione full-HD;</p></li><li><p>a pavimento di dimensioni 3m x 1.7m e risoluzione 1400x788; </p></li><li><p>con navigazione basata su Wiimote.</p></li></ul><li><p>Sistema di riproduzione audio spazializzato 5+1.<br></p></li><li><p>HMD steroscopico nVis nVisor SX 1280x1024 60° FoV (diagonale).<br></p></li><li><p>Sistema di tracciamento 6-DoF wireless Polhemus Liberty Latus, tracking area 2.5m x 2.5m.<br></p></li><li><p>Sistemi di tracciamento desktop wired Polhemus Fastrak, tre sensori a 6-DoF.<br></p></li><li><p>Guanti digitali: wireless a 5 e 14 sensori (5DT), wired a 22 sensori (CyberGlove).<br></p></li><li><p>Leap Motion Controller per il tracciamento desktop e immersivo (VR HMD mode) delle mani.<br></p></li><li><p>Kinect v2 per il tracciamento del punto di vista della persona in movimento davanti allo schermo verticale del sistema di proiezione.<br></p></li><li><p>Display autostereoscopico SeeReal 20''.<br></p></li><li><p>Dispositivo esoscheletrico di force-feedback resistivo (CyberGrasp).<br></p></li></ul><h3>Augmented Reality:</h3><ul><li><p>High-performance wearable computer autocostruito su base SBC 3.5''. </p></li><li><p>Un visore monoculare e uno binoculare video see-through per AR con telecamere.<span aria-hidden="true"></span></p></li></ul>

 Galleria multimediale

 

 

 Leggi anche

 

 

Alla Realtà Virtuale del CIRA il premio “best paper” della Springer alla conferenza SALENTO AVR 2020<img alt="" src="https://www.cira.it/PublishingImages/holographic%20collaboration.jpg" style="BORDER:0px solid;" />https://www.cira.it/it/infrastrutture-di-ricerca/laboratorio-di-realtà-virtuale/alla-realtà-virtuale-del-cira-il-premio-best-paper-della-springer-alla-conferenza-salento-avr-2020/Alla Realtà Virtuale del CIRA il premio “best paper” della Springer alla conferenza SALENTO AVR 2020Alla Realtà Virtuale del CIRA il premio “best paper” della Springer alla conferenza SALENTO AVR 2020Il premio “best paper" sponsorizzato dalla Springer, nell'ambito del 7th International Conference on Augmented Reality, Virtual Reality and Computer Graphics (SALENTO AVR 2020), è andato ai ricercatori del Laboratorio Virtuale del CIRA, autori del lavoro “A Glasses-Based Holographic Tabletop for Collaborative Monitoring of Aerial Mission".2020-09-10T22:00:00Z