Sensori di immagine avanzati

I dispositivi di ON Semiconductor accelerano la diffusione di funzionalità di sicurezza nei veicoli moderni

  • Sensori di immagine avanzati
    Sensori di immagine avanzati
  • Bahman Hadji, Senior Product Manager nella Divisione Automotive Imaging Solutions di ON Semiconductor
    Bahman Hadji, Senior Product Manager nella Divisione Automotive Imaging Solutions di ON Semiconductor

Autore: Bahman Hadji, Senior Product Manager nella Divisione Automotive Imaging Solutions di ON Semiconductor

La strada che conduce verso la guida autonoma prevede alcuni traguardi intermedi tra cui la diffusione su vasta scala di sistemi ADAS (Advanced Driver Assistance System) e i sensori di immagini rivestono un ruolo cruciale per questi avanzati sistemi di assistenza alla guida basati su telecamere. L’adozione delle telecamere è stata stimolata dall’introduzione di normative da parte di vari Enti governativi e di programmi di valutazione come NCAP (New Car Assessment Program), che ha indotto i costruttori di automobili a introdurre tali sistemi nelle piattaforme utilizzate per la realizzazione dei propri veicoli. Di conseguenza, in base a una ricerca condotta da Techno Systems Research, il numero di telecamere per applicazioni automotive prodotte a livello mondiale supererà quota 200 milioni di unità all’anno nel 2024.

Oltre ai vantaggi per il guidatore di poter usufruire, in fase di parcheggio e durante le manovre a bassa velocità, di un sistema di visione a 360° basato su quattro telecamere posizionate ai lati del veicolo, queste stesse telecamere possono essere usate per espletare altre funzionalità come ad esempio l’avviso di superamento della corsia di marcia e il rilevamento dei punti ciechi (blind spot). Esse possono anche essere impiegate in sostituzione degli specchietti che consentono la vista laterale al guidatore, fornendo una visuale priva di punti ciechi su un display all'interno del veicolo: l'eliminazione degli specchietti esterni risulta vantaggiosa in termini di risparmio di carburante (grazie alla resa aerodinamica superiore), oltre a garantire una maggiore libertà in fase di progettazione. I sistemi di telecamere frontali possono contribuire a diminuire il rischio di collisioni attraverso la frenatura automatica di emergenza e assicurano un maggior comfort al guidatore grazie al controllo della velocità di crociera di tipo adattativo (ACC – Adaptive Cruise Control).

Sensori: alcune considerazioni

La qualità dell'immagine richiesta per una telecamera utilizzata per visualizzare al guidatore un'immagine proveniente da una telecamera posteriore è differente da quella richiesta per una telecamera frontale che esegue il rilevamento e sfrutta opportuni algoritmi che permettono, se necessario, di attivare la frenatura automatica. Nel caso di sistemi di telecamere frontali, gli algoritmi di visione che utilizzano l'uscita prodotta dal sensore di immagine per rilevare pedoni, veicoli e oggetti e prendere successivamente le opportune decisioni, devono essere addestrati con una serie di immagini ottenute nel corso di migliaia di ore di prove su strada. Queste devono essere acquisite utilizzando lo stesso sistema che sarà impiegato in produzione e la qualità dell'immagine deve essere impostata prima di procedere all'acquisizione di questi dati. La messa a punto e la regolazione della qualità dell'immagine richiede un'attenta opera di ingegnerizzazione che tenga conto delle caratteristiche del sensore e verifichi che le tecniche di bilanciamento del bianco e l'esposizione automatica siano quelle adatte per produrre immagini ottimali al variare delle condizioni della scena. Una piattaforma scalabile di sensori di immagine in grado di garantire le medesime prestazioni e con caratteristiche simili con vari livelli di risoluzione contribuisce a ridurre oneri e costi che i produttori di automobili devono sostenere quando operano su più piattaforme, in quanto possono riutilizzare il lavoro già svolto e dataset di immagini utilizzati per l’addestramento.

Le sfide della visualizzazione

Le prestazioni del sensore di immagini e la sua capacità di acquisire una vasta gamma di contenuti di una scena, ovvero il suo range dinamico, sono sicuramente parametri critici nella scelta di qualsiasi sistema di visualizzazione usato in ambito automotive. Il range dinamico fornisce una misura della capacità di un sensore di catturare dettagli nelle zone molto luminose e nelle zone buie di una determinata scena. Si tratta di un problema comune che le telecamere usate in applicazioni automotive devono affrontare: si pensi ad esempio a un veicolo che appresta ad attraversare una galleria nel tardo pomeriggio mentre il sole è basso sull'orizzonte. Se il range dinamico del sensore è troppo basso, si potrebbero perdere dettagli importanti di una scena e ciò non consentirebbe all'algoritmo di rilevare un oggetto, innescando una situazione di potenziale pericolo. I LED utilizzati nei segnali stradali così come nei fari e nelle luci posteriori dei veicoli pongono un altro tipo di problematica per i sensori di immagine. Solitamente l'illuminazione a LED viene controllata utilizzando la modulazione PWM (Pulse Width Modulation): i LED vengono accesi e spenti a una velocità variabile per controllare l'intensità luminosa e risparmiare energia. Ma mentre il flicker (sfarfallio) non può essere percepito dall’occhio umano, i sensori di immagine acquisiscono un punto quando i LED sono sia spenti sia accesi. Ciò significa che l’uscita del sensore produrrà un effetto di sfarfallio nel momento in cui viene visualizzata sotto forma di video. Si tratta di un effetto indesiderato che può dar adito all’insorgere di problemi legati alla sicurezza.

Elevato range dinamico e attenuazione dell’effetto flicker

A questo punto appare chiara la necessità di poter disporre di una soluzione che abbini un elevato range dinamico (HDR) e l’attenuazione del fenomeno dello sfarfallio all’interno (LFM – LED Flicker Mitigation) nel medesimo dispositivo - un sensore di immagine capace di garantire un maggiore range dinamico all’interno di un singolo frame, per consentire l’acquisizione delle aree luminose, con un tempo di esposizione abbastanza esteso da consentire la cattura della sorgenti di luce impulsata durante il loro stato di “on” senza per questo sovraesporre la scena. La piattaforma di sensori di immagine Hayabusa™ di ON Semiconductor permette di ottenere HDR e LFM grazie all’utilizzo di una tecnologia di pixel che permette di ottenere una “Super-esposizione” (Super-Exposure). Questa tecnologia utilizza un design e processi innovativi che permettono di immagazzinare una maggiore quantità di carica all’interno del sensore: in questo modo è possibile ottenere tempi di esposizione fino a cinque volte più lunghi prima di raggiungere la saturazione rispetto ai tradizionali sensori di immagine della medesima dimensione. Grazie a questa tecnologia di pixel, questi sensori consentono di acquisire immagini con range dinamico superiore a 120 dBm, oltre a contribuire all’attenuazione del fenomeno di flicker dei LED.

Queste prestazioni sono in parte ascrivibili ai pixel “Super-Exposure” dei sensori Hayabusa. Grazie a un design innovativo e a processi di fabbricazione avanzati, ogni pixel BSI (Back Side Illuminated) da 3 micron immagazzina una carica composta da oltre 100.000 elettroni generata dalla luce in ingresso, una quantità decisamente superiore rispetto ai tradizionali sensori di immagine CMOS a parità di dimensione dei pixel. Ciò dà luogo a una super-esposizione singola che, con un range dinamico di 95 dB, cattura la maggior parte della scena. I sensori Hayabusa prevedono inoltre la possibilità di aggiungere un’ulteriore esposizione molto breve in modo da ampliare il range dinamico fino a oltre 120 dBm con l’acquisizione delle parti più luminose della scena.

Per attenuare il fenomeno di sfarfallio dei LED mantenendo allo stesso tempo un’uscita caratterizzata da un elevato range dinamico, la super esposizione può essere forzata in modo che la sua durata risulti sufficiente per acquisire l’intero periodo della sorgente LED impulsata alla più bassa frequenza prevista in una scena.

Considerazioni conclusive

Utilizzando una piattaforma che offre prestazioni e comportamento costanti per una vasta gamma di dispositivi, gli sviluppatori possono sfruttare migliaia di ore di dati di scena per addestrare in modo adeguato gli algoritmi necessari per implementare funzionalità ADAS su veicoli diversi, utilizzando il sensore di immagine più idoneo per tale applicazione. La piattaforma di sensori di immagini Hayabusa permetterà ai produttori di ampliare e migliorare la loro offerta nel settore dei sistemi ADAS, offrendo una maggiore scelta per i consumatori ma, soprattutto, equipaggiando un numero sempre maggiore di veicoli con sistemi che contribuiranno a migliorare la sicurezza stradale.