Per la collaborazione physics-based in un ambiente virtuale comune è previsto
che si progettino architetturalmente e si implementino estensioni da
realizzare nel simulatore di manutenzione in realtà virtuale dell’omonimo
Laboratorio del CIRA per permettere a più utenti di interagire immersivamente,
includendo l’interfacciamento con il ricco flusso di dati del modulo di
tracking multi-persona, prevenendone e gestendone le prevedibili problematiche
prestazionali. Una prima implementazione punta al funzionamento in locale con
i partecipanti co-locati in Laboratorio, mentre quella successiva mira a
sperimentare e dimostrare la possibilità che le persone collaborino a distanza
in laboratori adeguatamente attrezzati collegati in rete con il Laboratorio
del CIRA. Nella versione a distribuzione geografica verranno, inoltre,
trattate le tematiche delle latenze tra gli input e output (l’effetto percepito
visivamente da ciascun utente contemporaneo) per la minimizzazione del
fastidioso e inibente simulator sickness.
Un sistema di large-area tracking
multi-persona consentirà di implementare un nuovo, avanzato sistema di
tracciamento ottico contactless dello skeleton dei partecipanti all’esperienza
immersiva collaborativa (2+ persone). Esso sarà composto da quattro unità
Microsoft Kinect v2, una moderna telecamera RGB + Depth che fornisce in tempo
reale il tracciamento delle principali parti del corpo (skeleton) di un
massimo di 6 persone contemporaneamente, ciascuno a coprire un quadrante
dell’area di tracking e i cui dati, a valle di una co-registrazione iniziale,
verranno complessivamente “fusi” per emettere un unico set di dati atti a
costituire l’input di movimento dei partecipanti nel comune ambiente virtuale
e che andranno a pilotare i manichini virtuali che costituiscono l’avatar di
ciascun partecipante alla simulazione immersiva collaborativa. La possibilità di vedere gli altri partecipanti attraverso il loro
manichino-avatar attivato in tempo reale dai corrispondenti dati di
tracciamento risulta decisivo nell’ambiente collaborativo, ed è importante che
esso sia quanto più realistico o life-like
possibile, e per questo si farà leva su tutte le principali sorgenti di dati
del Kinect v2, la depth map, i dati
di skeleton ad alto livello e il flusso
video HD a colori in tempo reale.