<img alt="" src="https://secure.leadforensics.com/11743.png" style="display:none;">

Tiempo de Vuelo: Afrontando Desafíos 3D

Hasta ahora, en nuestra serie de blogs sobre tecnologías de visión artificial 3D, hemos explorado algunas de las principales técnicas usadas en visión artificial, tales como Visión Estéreo 3D y perfilometría láser 3D.

En este post cubriremos la técnica de Tiempo de Vuelo (también conocida en inglés como Time-of-Flight, o ToF), explorando la tecnología y cómo puede ayudarnos a resolver numerosos problemas de visión artificial.

¿Qué es el tiempo de vuelo? 

La técnica de Tiempo de Vuelo permite tomar imágenes 3D sin tener que escanear un objeto. Esta propuesta se basa en iluminar un objeto con una fuente de luz modulada. La posición del objeto se determina por el tiempo de viaje de un haz de pulsos enviado por el emisor y su retorno al sensor tras ser reflejado por un objeto. De ahí su nombre de Tiempo de Vuelo.

Sensores de Tiempo de Vuelo Mejorados

Históricamente, Time-of-Flight ha planteado dudas sobre su precisión y, en general, se ha considerado una tecnología 3D inferior con una tecnología de sensor limitada que solo puede proporcionar un grado de precisión deficiente (1-2 cm) sin ofrecer a Sin embargo, los sensores de ToF DepthSense de Sony han revolucionado la tecnología, capaces de proporcionar precisión milimétrica, permitiendo al integrador conseguir medidas más robustas y precisas.

El sensor IMX556 DepthSense ToF utiliza tecnología de iluminación trasera (BSI), produciendo una precisión de profundidad superior en comparación con las soluciones ToF existentes en el mercado.

Sony IMX556 DepthSense Sensor

Desglose de una cámara de Tiempo de Vuelo

Las cámaras ToF 3D se componen de una óptica, una fuente de luz integrada, un sensor que almacena toda la información de la imagen capturada y una interfaz. Si bien todos los sistemas de imágenes modernos incluirán sensores, lentes, interfaces y, a menudo, módulos de iluminación, este enfoque es diferente; En el corazón de una cámara de tiempo de vuelo se encuentra el sensor de tiempo de vuelo y la fuente de luz IR, que trabajan en consonancia para medir la distancia entre el sensor y el objeto. Como resultado, este sistema puede capturar información de profundidad e intensidad simultáneamente para cada píxel de la imagen.

Las cámaras de tiempo de vuelo tienen un gran potencial para aplicaciones de visión artificial porque capturan de forma nativa la información de profundidad que deben inferir los sistemas de imágenes tradicionales.

Debido a que esta información de profundidad es independiente de la intensidad y el color del objeto, se puede segmentar el objeto del fondo con algoritmos relativamente simples.

Ventajas y Desventajas de la Tecnología de Tiempo de Vuelo

Las cámaras ToF son una solución atractiva para una amplia gama de aplicaciones de visión artificial debido a una serie de ventajas sobre otras soluciones de imagen 3D.

En primer lugar, la construcción compacta permite que las cámaras ToF se puedan implementar con menos problemas que otras tecnologías 3D, lo que ahorra tiempo y, por lo tanto, dinero. Time-of-Flight es rápido, fácil de instalar y, además, es la tecnología 3D más barata en comparación con la visión estéreo y los perfilómetros 3D. Sin embargo, la advertencia a esto es que el tiempo de vuelo no es tan preciso como otras tecnologías 3D, como por ejemplo los perfilómetros 3D.

Las cámaras Time-of-Flight consiguen una gran precisión y resolución de profundidad al milímetro (mm), así como excelentes velocidades de imagen de alrededor de 60Hz, lo que significa que ToF puede hacer frente tanto a objetos en movimiento como a escenas estáticas.

En cuanto a consideraciones, es importante tener en cuenta que si bien este no es un escáner 3D, es una forma activa de tecnología 3D como pueden ser también la triangulación láser o el estéreo con luz estructurada. Por lo tanto, hay que tener en cuenta la iluminación de la escena a la hora de preparar el montaje.

La precisión de la fuente de luz infrarroja pulsada es clave para garantizar mediciones precisas. Los pulsos deben tener duraciones idénticas, tanto en los tiempos de subida como de bajada, ya que el sistema es bastante sensible a las variaciones. Incluso una desviación de nanosegundos entre pulsos puede producir errores de centímetros en unidades del mundo real.

Los factores que influyen en la precisión de la reconstrucción 3D varían desde múltiples reflejos, luz dispersa, área de trabajo, temperatura, transparencia y luz ambiental. Para mitigar errores, se recomienda medir en el centro del área de trabajo y evitar trabajar en áreas con múltiples reflejos o luz ambiental cambiante.

Una posición estable y el uso de filtros de ruido tanto para el espacio como para el tiempo ayudarán a aumentar la precisión del sistema. La tecnología tiene una gran ventaja cuando se trabaja con entornos con poca luz, ya que los resultados obtenidos estarán menos expuestos a las fluctuaciones ambientales, lo que se traduce en una mejora en la precisión.

Eligiendo la Cámara de Tiempo de Vuelo Correcta

Para un equipo Time-of-Flight robusto, preciso y económico, recomendamos la gama Helios de LUCID Vision Labs. La gama Helios se compone de la cámara Helios original, su evolución Helios2 y el módulo de cámara Helios Flex compacto y adaptable diseñado para instalaciones con restricciones de espacio y optimizado para NVIDIA Jetson.

LUCID Helios2 

La cámara Helios2 Time-of-Flight (ToF) es una cámara 3D IP67 "resistente a fábricas" que cuenta con el sensor IMX556PLR DepthSense de Sony, diseñado para un funcionamiento de alto rendimiento en entornos industriales y para una amplia variedad de aplicaciones industriales 3D como robótica, inspección 3D y logística, que incluyen manejo avanzado de materiales, recolección y colocación, clasificación, paletización y despaletización, estimación de volumen y más.

La cámara Helios2 ofrece una precisión submilimétrica y una precisión mejorada en comparación con la cámara Helios anterior. La calibración entre los VCSEL y la sincronización del sensor se ha mejorado, lo que da como resultado más detalles en 3D, junto con una detección de bordes mejorada para reducir los píxeles dispersos y el ruido general.

Las cámaras de LUCID funcionan bien en conjunto con su software Arena SDK para el procesamiento de imágenes y la representación de nubes de puntos. Si prefiere utilizar Matrox Design Assistant (DA) o Matrox Imagine Library (MIL X), estos programas son compatibles con la gama Helios de LUCID.

Nube de puntos capturada con Helios 2 y generada usando Arena SDK 

Para obtener más información sobre lo anterior, no dudes en consultar nuestro ebook sobre técnicas de imágenes 3D. Las especificaciones para diferentes soluciones de imágenes 3D se pueden encontrar en las hojas de datos de nuestras cámaras, disponibles en nuestro sitio web para ayudarte a tomar la decisión correcta a la hora de elegir el modelo de cámara de visión artificial 3D óptimo para tu aplicación industrial.

Comentarios

LA VISIÓN ARTIFICIAL PROPORCIONA A LOS ORDENADORES LA CAPACIDAD DE VER

La visión artificial permite que los ordenadores puedan leer códigos de barra, códigos data matrix, marcado de piezas, reconocimiento óptico de caracteres (OCR) y verificación óptica de caracteres (OCV). – Aprende más sobre la tecnología de visión artificial aquí.

Laptop Image Small-1