Un equipo dirigido por informáticos de la Universidad de Maryland inventó un mecanismo de cámara que mejora la forma en que los robots ven y responden al mundo que los rodea. Inspirándose en el funcionamiento del ojo humano, su innovador sistema de cámara imita los pequeños movimientos involuntarios que utiliza el ojo para mantener una visión clara y estable a lo largo del tiempo. La creación de prototipos y pruebas de la cámara por parte del equipo, llamada cámara de eventos mejorada con microsacadas artificiales (AMI-EV), se detallaron en un artículo publicado en la revista. Robótica científica en mayo de 2024.

«Las cámaras de eventos son una tecnología relativamente nueva para rastrear objetos en movimiento, que rastrean objetos en movimiento mejor que las cámaras tradicionales, pero es difícil para las cámaras de eventos actuales capturar imágenes nítidas y sin desenfoque cuando hay mucho movimiento involucrado», dijo el autor principal del artículo. Botao He, Ph.D. Estudiante de Doctorado en Ciencias de la UMD. «Este es un gran problema porque los robots y muchas otras tecnologías, como los vehículos autónomos, dependen de imágenes precisas y oportunas para responder correctamente a un entorno cambiante. Entonces nos preguntamos: ¿cómo garantizan los humanos y los animales su visión? sobre un objeto en movimiento?»

Para su equipo, la respuesta fueron las microsacádicas, pequeños y rápidos movimientos oculares que se producen de forma involuntaria cuando una persona intenta enfocar la mirada. Con estos movimientos pequeños pero continuos, el ojo humano puede enfocar con precisión un objeto y sus texturas visuales, como el color, la profundidad y las sombras, a lo largo del tiempo.

«Nos dimos cuenta de que así como nuestros ojos necesitan estos pequeños movimientos para mantener el enfoque, una cámara podría usar un principio similar para capturar imágenes claras y precisas sin desenfoque de movimiento», dijo.

El equipo replicó con éxito las microsacadas colocando un prisma giratorio dentro del AMI-EV para redirigir los rayos de luz capturados por la lente. El movimiento giratorio continuo del prisma simuló los movimientos que ocurren naturalmente en el ojo humano, permitiendo a la cámara estabilizar las texturas del sujeto grabado tal como lo haría un humano. Luego, el equipo desarrolló un software para compensar el movimiento del prisma en el AMI-EV para consolidar imágenes estables a partir de las luces cambiantes.

El coautor del estudio, Yiannis Aloimonos, profesor de informática de la UMD, cree que la invención del equipo es un gran paso adelante en el campo de la visión robótica.

«Nuestros ojos toman fotografías del mundo que nos rodea y esas imágenes se envían a nuestro cerebro, donde se analizan. La percepción ocurre a través de este proceso, y así es como le damos sentido al mundo», explicó Aloimonos, quien también es director de Visión por Computador. Laboratorio del Instituto de Ciencias de la Computación Avanzada (UMIACS) de la Universidad de Maryland. «Cuando trabajes con robots, reemplaza tus ojos con una cámara y tu cerebro con una computadora. Mejores cámaras significan una mejor percepción y respuesta del robot».

Los investigadores también creen que su innovación podría tener implicaciones importantes más allá de la robótica y la defensa nacional. Los científicos que trabajan en industrias que dependen de la captura precisa de imágenes y la detección de formas buscan constantemente formas de mejorar sus cámaras, y AMI-EV podría ser una solución clave para muchos de los desafíos que enfrentan.

«Con sus características únicas, los sensores de eventos y los AMI-EV están preparados para ocupar un lugar central en el campo de los dispositivos portátiles inteligentes», afirmó la investigadora Cornelia Fermiler, autora principal del artículo. «Tienen claras ventajas sobre las cámaras clásicas, como un excelente rendimiento en condiciones de iluminación extremas, baja latencia y bajo consumo de energía. Estas características son ideales para aplicaciones de realidad virtual, como proporcionar una experiencia perfecta y cálculos rápidos de la cabeza y el cuerpo. Los movimientos son necesarios «.

Durante las primeras pruebas, el AMI-EV pudo capturar y mostrar con precisión el movimiento en una variedad de contextos, incluida la detección del pulso humano y la identificación de formas de movimiento rápido. Los investigadores también descubrieron que el AMI-EV puede capturar movimiento a decenas de miles de fotogramas por segundo, superando a las cámaras comerciales más comúnmente disponibles, que promedian entre 30 y 1.000 fotogramas por segundo. Una representación del movimiento más fluida y realista podría resultar fundamental para todo, desde crear experiencias de realidad aumentada más inmersivas y un mejor monitoreo de seguridad hasta mejorar la forma en que los astrónomos capturan imágenes en el espacio.

«Nuestro nuevo sistema de cámaras puede resolver muchos problemas específicos, como ayudar a un vehículo autónomo a descubrir quién es un ser humano y quién no está en la carretera», dijo Aloimonos. «Como resultado, tiene muchas aplicaciones con las que gran parte de la sociedad ya interactúa, como sistemas de conducción autónoma o incluso cámaras de teléfonos inteligentes. Creemos que nuestro nuevo sistema de cámaras allana el camino para sistemas más avanzados y potentes».



Source link