Accesso
 

​​​​​

156
Collaborazione physics-based in un ambiente virtuale comune

Riutilizzo elemento catalogo ‭[4]‬

Riutilizzo elemento catalogo ‭[3]‬

Riutilizzo elemento catalogo ‭[2]‬

Riutilizzo elemento catalogo ‭[1]‬

Collaborazione physics-based in un ambiente virtuale comune

​Per la collaborazione physics-based in un ambiente virtuale comune è previsto che si progettino architetturalmente e si implementino estensioni da realizzare nel simulatore di manutenzione in realtà virtuale dell’omonimo Laboratorio del CIRA per permettere a più utenti di interagire immersivamente, includendo l’interfacciamento con il ricco flusso di dati del modulo di tracking multi-persona, prevenendone e gestendone le prevedibili problematiche prestazionali. Una prima implementazione punta al funzionamento in locale con i partecipanti co-locati in Laboratorio, mentre quella successiva mira a sperimentare e dimostrare la possibilità che le persone collaborino a distanza in laboratori adeguatamente attrezzati collegati in rete con il Laboratorio del CIRA. Nella versione a distribuzione geografica verranno, inoltre, trattate le tematiche delle latenze tra gli input e output (l’effetto percepito visivamente da ciascun utente contemporaneo) per la minimizzazione del fastidioso e inibente simulator sickness.            
Un sistema di large-area tracking multi-persona consentirà di implementare un nuovo, avanzato sistema di tracciamento ottico contactless dello skeleton dei partecipanti all’esperienza immersiva collaborativa (2+ persone). Esso sarà composto da quattro unità Microsoft Kinect v2, una moderna telecamera RGB + Depth che fornisce in tempo reale il tracciamento delle principali parti del corpo (skeleton) di un massimo di 6 persone contemporaneamente, ciascuno a coprire un quadrante dell’area di tracking e i cui dati, a valle di una co-registrazione iniziale, verranno complessivamente “fusi” per emettere un unico set di dati atti a costituire l’input di movimento dei partecipanti nel comune ambiente virtuale e che andranno a pilotare i manichini virtuali che costituiscono l’avatar di ciascun partecipante alla simulazione immersiva collaborativa. La possibilità di vedere gli altri partecipanti attraverso il loro manichino-avatar attivato in tempo reale dai corrispondenti dati di tracciamento risulta decisivo nell’ambiente collaborativo, ed è importante che esso sia quanto più realistico o life-like possibile, e per questo si farà leva su tutte le principali sorgenti di dati del Kinect v2, la depth map, i dati di skeleton ad alto livello e il flusso video HD a colori in tempo reale.

Galleria multimediale

LEGGI ANCHE