Sistema LIDAR: obtención de información 3D a partir de imágenes 2D

BOLETIN OBSERVACION TECNOLOGICA 44

tecnologías emergentes Sistema LIDAR: obtención de información 3D a partir de imágenes 2D Roberto Ocaña, Ian Wallhead, Teresa Molina, AIDO - Instituto Tecnológico de Óptica, Color e Imagen. Palabras clave: LIDAR, sistemas de imagen, iluminación activa, detección de objetos. Metas tecnológicas relacionadas: MT 2.1.6. Un sistema LIDAR (Laser Imaging De-tection and Ranging) de imagen es un sistema capaz de obtener informa-ción 3D de un campo visual de ma-nera instantánea a partir de imágenes 2D sincronizadas con una fuente de iluminación. A diferencia de los siste-mas LIDAR de escaneo (no formado-res de imagen) que necesitan de un tiempo de barrido de un sensor pun-tual para obtener la información 3D de un campo visual, los sistemas LIDAR de imagen se destacan por la rapidez en la extracción de la información 3D. Se puede hablar de que los sistemas LIDAR de imagen son sistemas más cercanos a la terminología “tiempo real” permitiendo al usuario seleccio-nar objetos de una escena o elaborar un mapa 3D de manera instantánea. Existen básicamente dos tipos de sis-temas LIDAR de imagen: los sistemas que guardan la información 3D de una escena en cada pixel y los que usan luz sincronizada junto con un obturador ultrarrápido. En los prime-ros, cada pixel del sensor no sólo es capaz de registrar la intensidad sino también el momento en el que la luz llega al pixel. Esta característica junto con la utilización de una iluminación sincronizada permite obtener infor-mación 3D de una escena tal como se ilustra en la figura 1. En efecto, supongamos que en el instante t=0 se abre la cámara y se lanza un pulso de iluminación (por ejemplo usando una lámpara flash o un láser). Si todos los objetos de la figura 1 caen dentro del campo visual del sistema LIDAR, podremos decir que la luz de nuestro sistema de ilu-minación se reflejará primero en los objetos azules, después en los rojos y por último en los verdes. Este orden Fig. 1. Principio de funcionamiento de un LIDAR de imagen. (Fuente: AIDO) es el mismo para la llegada de la luz reflejada a la cámara. El tiempo de lle-gada de la luz a la cámara depende de la velocidad de la luz y de la dis-tancia a la que están situados estos objetos. Entonces, para la situación ilustrada en la figura 1 tenemos que la luz de los objetos azules situados a 500 m de distancia llega a la cáma-ra 3,33 microsegundos más tarde; la de los objetos rojos (situados a 600 m de distancia) 4 microsegundos más tarde y la de los objetos verdes (situados a 700 m de distancia) 4,67 microsegundos más tarde. Por lo tan-to, si cada pixel de nuestro sensor es capaz de registrar el momento en el que la luz le llega, obtendremos como resultado una imagen con informa-ción tridimensional de la escena. Este tipo de sistema LIDAR de imagen es sin embargo complejo de desarrollar ya que exige un método de registro del momento de la llegada de la luz a cada pixel y además una lectura rápi-da de todo el conjunto de pixeles del sensor. Es por ello, que los desarro-llos actuales sólo permiten registrar un número limitado de pixeles para la formación de la imagen, necesitan de frecuencias de procesador en el sensor elevadas y por ser desarrollos especiales, el precio del sensor se dispara hasta las centenas de miles de euros. Además cabe señalar, que la precisión de la información 3D de-penderá de lo preciso que sea cada pixel del sensor determinando el mo-mento de llegada de la luz. El segundo tipo de sistema LIDAR de imagen ya mencionado, consigue superar estas desventajas mediante luz sincronizada y obturadores ultra-rápidos. En efecto, en estos sistemas el obturador de la cámara (un inten-sificador de imagen) decide cuándo comienza la exposición y durante qué tiempo. De esta manera y continuan-do con el ejemplo ilustrado en la fi-gura 1, si nuestro obturador se abre durante un tiempo suficiente a partir del instante t=3,33 microsegundos, sólo registraremos los objetos azules. Para la siguiente imagen, abriendo el obturador en el instante t=4 microse-gundos registraremos los objetos ro-jos y en una última imagen, abriendo el obturador en el instante t=4,67 mi-crosegundos registraremos los obje-tos verdes. El tiempo que permanece abierto el obturador en cada captura define la profundidad de la escena a registrar. Por tanto, sabiendo que la luz recorre 30 centímetros en 1 na-nosegundo podremos decir que por cada nanosegundo que el obturador permanezca abierto registraremos 15 centímetros de profundidad (nótese que la luz reflejada en un objeto a 15 centímetros habrá recorrido 15 cm en la ida y 15 cm en la vuelta, es decir 30 cm en total). Las tres imágenes cap-tadas usando la anterior metodología contendrán por tanto la información tridimensional de la escena. En ge-neral tanto el sistema de iluminación como el obturador (un intensificador de imagen) permiten trabajar a fre-cuencias tan altas como 100 Hz para escenas con objetos situados a partir de una decena de metros. Esto nos garantiza la obtención de 100 imáge-nes en 1 segundo o lo que es lo mis-mo, la capacidad de dividir la escena en 100 imágenes de profundidad en un segundo. En toda esta discusión se ha omiti-do hasta ahora el papel que juega la iluminación. De hecho se necesita un control preciso en el rango de los na- Boletín de Observación Tecnológica en Defensa n.º 44. Tercer trimestre 2014 13


BOLETIN OBSERVACION TECNOLOGICA 44
To see the actual publication please follow the link above