La tecnologia del video processing si sta sviluppando rapidamente soprattutto relativamente alle tecnologie microelettroniche, in particolare quelle dei circuiti integrati. Le problematiche di integrazione che i circuiti integrati per il video e l’imaging consentono di risolvere spaziano dal livello di cattura del dato video o di immagine a quello molto complesso dell’elaborazione del dati catturati. Questi circuiti integrati offrono il vantaggio di inglobare soluzioni difficili da implementare in condizioni di bassa integrazione. Inoltre, i recenti progressi nel campo dell’elaborazione del segnale video, come l’embedded vision e l’embedded video analytics, due importanti aree applicative emergenti che avranno un grande impatto sull’innovazione tecnologica, stanno ponendo in primo piano l’importanza del processing embedded e dei relativi IC a supporto. Lo sviluppo dei sensori d’immagine sotto forma di IC e della relativa elettronica a supporto di questi sensori è un’ulteriore componente di sviluppo tecnologico che consente di realizzare applicazioni embedded con capacità di elaborazione video in condizioni difficili (per esempio nel caso dei sistemi indossabili) oppure caratterizzate da requisiti particolarmente stringenti come ad esempio quello delle applicazioni automobilistiche.
IC per il Ccd signal processing
La tecnologia Ccd (Charge-coupled devices) è alla base dei sensori di immagine della maggior parte dei sistemi di imaging sia consumer che industriali. Tali sensori producono in uscita un segnale che richiede una catena di funzioni di processing prevalentemente analogica (amplificatori operazionali, convertitori A/D, multiplexer analogici, switch analogici, ecc.). L’integrazione su singolo chip della catena di elaborazione del segnale Ccd è una delle innovazioni che hanno permesso di implementare sistemi di imaging e video particolarmente compatti, efficienti ed economici. L’elaborazione ottimale del segnale in uscita da un sensore Ccd richiede una appropriata circuiteria analogica per la conversione della carica elettrica prodotta da ogni pixel dell’immagine in una tensione equivalente. Un esempio di tali problematiche di elaborazione del segnale Ccd è relativo allo stadio di condizionamento e di misura dell’intensità del pixel per ottenere un accurato recovery del segnale e la sua successiva conversione numerica. In questa fase il segnale Ccd può evidenziare componenti di rumore non correlato che possono introdurre errori che incidono sulla qualità della misura (per esempio i glitch). La soluzione a questa problematica è una catena di processing che include stadi di elaborazioni come il correlated double sampling e DC restoration (cosiddetto clamping). La soluzione single chip relativa alla catena di condizionamento del segnale Ccd sotto forma di front-end analogico è particolarmente vantaggiosa data la complessità della problematica del condizionamento del segnale e la necessità di effettività nella implementazione dell’applicazione di imaging e video. L’AD9978A di Analog Devices è un esempio di Afe altamente integrato a doppio canale per l’elaborazione del segnale Ccd per applicazioni di video camera ad alta velocità. Ogni canale viene controllato alla frequenza di pixel (fino a 75 MHz) e include la completa catena Afe, unclusa la parte mixed-signal (conversione Adc). Questo IC include un Precision Timing core che consente controllare in maniera efficace il correlated double sampler e l’amplificatore sample&hold. L’IC integra anche una reduced range low voltage differential signaling interface (LVDS) per l’output dei dati su due canali. La parte analogica del front-end include il black level clamping, il Cds e la Vga. Il convertitore analogico-digitale è a 14 bit e 75 MHz. L’intero IC è programmabile tramite una interfaccia seriale a 3 fili e contenuto in un package di 6 x 6 mm.
Imaging cognitivo
L’imaging, in particolare quello digitale, è attualmente una delle più importanti tecnologie di visione per applicazioni industriali (automazione industriale) e civili (medicale, sorveglianza, ecc.), ma anche di natura consumer (automotive). La sempre più ampia disponibilità di sensori di immagine e di videocamere allo stato solido ha consentito di applicare metodologie di imaging e di video detection intelligente, principalmente basate su tecniche di image fusion che consentono di implementare il concetto di imaging cognitivo. L’image e il video fusion sono processi che combinano informazioni che provengono da differenti immagini o sorgenti di immagine per produrre una immagine composta contenente più informazione utile a livello cognitivo, quindi maggiormente utile per la percezione visiva e l’elaborazione. L’imaging e il video cognitivo sono metodologie che permettono di acquisire e dedurre informazioni visuali minimizzando l’incertezza e la ridondanza dei dati, e allo stesso tempo massimizzando le informazioni utili all’applicazione. I vantaggi che derivano dall’applicazione di queste metodologie sono una maggiore copertura spazio-temporale, una minore incertezza nell’interpretazione dei dati, una maggiore affidabilità del sistema e in generale un aumento della robustezza del sistema. Applicazioni come la consapevolezza delle situazioni, la sorveglianza, il tracking di persone e oggetti, la raccolta delle informazioni, l’identificazione delle persone, la guida automatica dei veicoli, ecc. possono trarre ampi vantaggi dall’applicazione di tale metodologia. L’imaging cognitivo implica da una parte una tecnologia di sensing visuale allo stato solido, in partricolare sensori di immagine e video capaci di operare in differenti domini di misura, per esempio quello visibile e quello invisibile (termico), dall’altra un elevata capacità computazionale, che, soprattutto nelle applicazioni embedded richiede che questo processing venga eseguito a livello di sensore piuttosto che a livello di application processor. La soluzione single chip in questo caso svolge il ruolo di tecnologia abilitante. L’Image Cognition Processor di Freescale è una esempio di motore di elaborazione che su singolo chip detiene tutte le risorse computazionali che consentono ad un sistema embedded di visione di eseguire algoritmi intelligenti per l’interpretazione dei dati di immagine e video. Il cuore computazionale è APEX di CogniVue (34B Ops/sec), un parallel Array Processor unit, affiancato da un core ARM926EJTM che svolge il ruolo di master processor (opera a 350 MHz di clock) e da una serie di acceleratori hardware supportati da un bus Axi a 64 bit. L’IC supporta varie opzioni di low-power (multiple power e voltage island), oltre ad eseguire il clock gating e il frequency scaling. Questo processore è in grado di eseguire on-chip l’estrazione delle caratteristiche dell’immagine per la rilevazione dell’angolo, del lato e della forma degli oggetti, di rilevare il movimento, il preprocessing e condizionamento del segnale d’immagine, ed eseguire innummerevoli primitive di elaborazione. Anche i coded, sia audio (Mpeg4, D1 a 30 fps) e audio/vocali sono supportati, consentendo in tal modo di eseguire applicazioni di imaging cognitivo audio/visuale.
Sensori d’immagini
Le applicazioni di imaging e video sono basate sui sottosistemi di sensing video come i sensori di immagine. Questi, realizzati come circuiti integrati, oltre a implementare la cattura dell’immagine sotto forma di pixel, integrano anche una serie di funzionalità che consentono un elevato livello di integrazione del sottosistema di cattura del segnale video. Il sensore di immagine nel sistema video svolge un ruolo fondamentale relativamente al livello di embedding che è necessario ottenere. La sua realizzazione sotto forma di circuito integrato rende disponibile, oltre alle funzioni fondamentali di cattura dell’immagine sotto forma di array di pixel a più o meno alta risoluzione, anche di una serie di altre componenti e funzionalità aggiuntive che consentono di ottenere soluzioni particolarmente compatte, come per esempio i cosiddetti camera module. Il sensore di immagine VD6955 di STMicroelectronics, su singolo chip, integra la funzionalità necessaria per una risoluzione di cattura a 5 megapixel (20600 x 1952), inclusi 4 border pixel per lato, supporta una command interface operante fino a 400 kHz e la capacità di eseguire la bassa risoluzione attraverso il binning analogico (2 x 2) e/o il sottocampionamento (2 x 2). Oltre a tali caratteristiche video, è interessante di questo circuito integrato l’integrazione di una memoria Otp (One time programming).
Grazie alla disponibilità di sensori di immagine ad elevata integrazione è possibile implementare moduli camera molto compatti. Un esempio è il VX6953CB di STMicroelectronics, un modulo camera che integra il sensore e quanto serve per il montaggio su Pcb come se si trattasse di un comune circuito integrato. Questo modulo produce un’immagine grezza da 5 Mpixel a 15 fps, e supporta le interfacce dati Ccp 2.0 e Csi-2. Il modulo integra anche le funzioni di still a elevata qualità e il video HD. L’immagine è eccellente da 15 cm (modalità Super Macro) e da 40 cm (modalità normale) fino all’infinito. Il modulo è predisposto anche per essere affiancato da un acceleratore hardware per eseguire gli algoritmi di elaborazione associati all’applicazione.
IC per embedded video analytics
L’embedded video analytics è una metodologia di elaborazione delle informazioni video che fonde le peculiarità dei sistemi embedded con le capacità del sensing video, allo scopo di consentire ai sistemi di analizzare le informazioni e prendere decisioni in modalità proattiva. Questa metodologia si sta sviluppando in conseguenza della crescente richiesta di sistemi elettronici intelligenti capaci di assumere decisioni in maniera autonoma e conseguentemente di interagire con l’uomo solo se necessario. L’automotive e i sistemi di guida automatica sono una delle principali aree applicative del video embedded analytics in quanto la componente di sensing video e visuale è preponderante. Un esempio può essere un sistema di visione che consente al guidatore di avere in maniera proattiva informazioni relative alla navigazione di prossimità (per esempio, distanza e posizione di un ostacolo). Altre applicazioni riguardano l’ausilio alla persona, sia normale, sia portatatrice di handicap, come gli ipovedenti, ove l’embedded video analytics viene integrato in dispositivi come gli occhiali per fornire informazioni di natura ambientale (per esempio, riconoscimento di una persona attesa). In generale, l’applicazione delle metodologie dell’embedded video analytics avrà un elevato impatto sulla funzionalità di sistema come il riconoscimento facciale, la comunicazione delle immagini, l’interfaccia video naturale (gesture, espressione facciale, ecc.), l’imaging computazionale, ecc. La tecnologia abilitante dell’embedded video analytics è dunque quella dei digital signal processor. Questa metodologia innovativa richiede infatti prestazioni computazionali non solo elevate, ma anche efficienti sotto vari aspetti dell’embedding (piccole dimensioni, basso consumo e basso costo). Il sistema deve raccogliere dati di segnale video (e di altra natura sensoriale), deve elaborarli in tempo reale e applicare algoritmi che permettono al sistema stesso di decidere autonomamente sul modo di interazione con l’ambiente e/o con le persone. Il TMS320DM64x di Texas Instruments è un IC Dsp capace di trattare l’informazione video ad altissima velocità eseguendo algoritmi di natura analytics in real-time. La caratteristica di questo circuito integrato ad altissima integrazione è quella tenere insieme l’architettura computazionale intensiva del Dsp con l’architettura di sistema embedded di natura system-on-chip. L’esigenza di combinare il video con l’audio viene supportata in questo circuito integrato tramite l’integrazione delle relative periferiche di comunicazione che consentono di implementare in maniera efficiente lo streaming dati audio-visuali, senza aggiunta di componenti per interfacciare i dispositivi video. Tra le varie applicazioni video direttamente integrabili su questo Digital Media Processor, il video-on-demand, la video telefonia, la registrazione video, la video-sorveglianza, la video-conferenza, ecc.