Descrizione
IL SISTEMA ARS:
Il sistema ARS (Augmented Reality System) consente agli utenti di visualizzare su display standard in Realtà Aumentata, cioè, sovrapporre in tempo reale e in maniera completamente 3D a immagini LIVE, qualsiasi informazione digitale (video o immagini) in modo georeferenziato.
ARS può essere utilizzato in parallelo (come soluzione stand-alone) e integrato con sistemi di sorveglianza video esistenti.
Tramite ARS Si può sovrapporre in tempo reale a un flusso video proveniente da IR, telecamere termiche o visibile, un qualsiasi elemento grafico contestualizzato provenienti da un database di contenuti digitali georeferenziati. Così si può vedere ad esempio, sovrapposto alle immagini video di un lago o di una diga, le informazioni relative alla sollecitazione meccanica delle pareti diga o l’avatar di una presenza umana nascosta alla vista telecamera, ma identificata da sensori locali.
ARS è un sistema di DATAFUSION REAL TIME in grado di gestire e fondere diverse fonti di dati georeferenziati (flussi video, immagini, sensori di dati, ..) al fine di consentire all’utente di beneficiare di una vista multisensoriale integrata dello scenario sotto controllo . ARS è integrabile direttamente con sistemi di sorveglianza Long Range per mezzo di una centralina e controlli PTZ.
L’utente può muoversi in PTZ sul canale video di riferimento e visualizzare automaticamente informazioni in modalità Augmented Reality sovrapposte alle immagini acquisite e ai video provenienti dalle telecamere di sorveglianza per mezzo di controlli standard: è inoltre possibile visualizzare i risultati su display standard sia in modalità di funzionamento locale e remota.
Funzionalità principali:
Da un punto di vista funzionale il sistema ARS può essere utilizzato in due configurazioni operative:
- Configurazione SINGOLA, in cui il sistema ARS utilizza il sistema AXIS 233D dome PTZ come telecamera di riferimento. In questa configurazione il sistema necessita solo di essere interfacciato con i dati provenienti dai sensori esistenti i dati del campo o da simulazioni provenienti dai processori numerici dedicati. è disponibile anche una versione con sistema di ripresa a 360 ° (vedi immagine 1); in questa configurazione non ci sono parti in movimento, ed i controlli PTZ sono simulate da SW in tempo reale su un’immagine di 25 Mpixel a colori.
Il sistema ARS è in grado di fornire una risoluzione angolare di circa 0.01 grado: questaa risoluzione è necessaria al fine di creare una perfetta corrispondenza tra immagini reali e contenuti digitali di realtà aumentata. - Configurazione INTEGRATA, in cui solo l’unità di controllo è utilizzata per la fusione dei dati e di elaborazione grafica in tempo reale, mentre le immagini di riferimento sono acquisite dalle telecamere di sorveglianza selezionate dal cliente. In questa configurazione è necessario ricevere i valori PTZ dalle telecamere di sorveglianza in modo da generare la sincronizzazione tra immagini e grafica.
In entrambi i casi, i comandi PTZ sono ottenuti da controlli dedicati (joystick o controlli angolari e separati da una piattaforma di controllo integrato che funge da Data Hub e Graphic Processor.
Centralina e unità di elaborazione dati:
- Elabora in tempo reale i rendering grafici ed esegue l’attività di fusione dei dati;
- Elabora il database di contenuti digitali;
- Elabora l’ambiente di authoring.
L’unità di controllo ed elaborazione gestisce l’intero processo: dall’acquisizione dei dati alla fase di Data Fusion grafica.
Il SW fornito con ARS comprende anche un ambiente specifico authoring dove è possibile definire la corrispondenza tra le immagini provenienti dal mondo reale, acquisite dai sensori di sorveglianza, ed i contenuti multimediali.
L’ambiente SW degli ARS è composto da un’applicazione che si interfaccia con l’intero sistema di sensori fisici e con il display dell’utente. Questa applicazione gestisce anche:
- la produzione di streaming video integrata con contributi multimediali in Augmented Reality , gestendo i contributi multimediali dal database dei contenuti dedicato;
- la fase di calibrazione, in cui i contenuti digitali e POI sono associati ai FOW.
Il sottosistema grafico fornisce le seguenti funzioni:
- la gestione dell’interazione tra telecamera e i sensori di posizione del sistema di brabdeggio della telecamera.
Fase operativa:
- la rivelazione di bersagli ripresi dalla fotocamera, e la produzione di segnali visivi per attirare l’attenzione dell’utente in modo da consentire l’utilizzo di contributi multimediali associati;
- la gestione dell’attivazione e disattivazione dei contenuti multimediali associata al sistema di controllo PTZ.
Recensioni
Ancora non ci sono recensioni.