Hay un límite a la velocidad con que los vehículos autónomos (drones) pueden volar, consiguiendo así evitar con seguridad los obstáculos. Esto se debe a que las cámaras usadas en los drones de hoy en día solo pueden procesar imágenes tan rápido como un marco por cuadro individual. Más allá de los aproximadamente 48 kilómetros por hora, un drone es probable que se bloquee simplemente porque sus cámaras no pueden actualizarse.
Recientemente, los investigadores de Zurich inventaron un nuevo tipo de cámara, conocida como el Sensor de Visión Dinámica (DVS), que visualiza continuamente una escena en términos de cambios de brillo, a intervalos de microsegundos extremadamente cortos. Pero este lluvia de datos puede abrumar a un sistema, lo que hace difícil para que los drones puedan distinguir un obstáculo que se aproxima a través del ruido.
Ahora los ingenieros en el MIT han llegado con un algoritmo para sintonizar una cámara DVS para detectar sólo los cambios específicos de brillo que importan para un sistema particular, simplificando enormemente una escena a sus elementos visuales más esenciales.
Los resultados que presentaron esta semana en la IEEE American Control Conference en Seattle pueden aplicarse a cualquier sistema lineal que dirige a un robot a moverse del punto A al punto B como respuesta a los datos visuales de alta velocidad. Eventualmente, los resultados también podrían ayudar a aumentar las velocidades de los sistemas más complejos como los drones y otros robots autónomos.
«Hay una nueva familia de sensores de visión que tiene la capacidad de llevar el vuelo autónomo de alta velocidad a la realidad aplicada a los drones, pero los investigadores no han desarrollado algoritmos que sean adecuados para procesar los datos de salida», dice Prince Singh, estudiante graduado en MIT Departamento de Aeronáutica y Astronáutica. «Presentamos un primer enfoque para dar sentido a los datos ambiguos del DVS, al reformular el sistema inherentemente ruidoso en una forma accesible«.
Los coautores de Singh son el profesor visitante del MIT Emilio Frazzoli del Instituto Federal Suizo de Tecnología en Zurich y Sze Zheng Yong de la Universidad Estatal de Arizona.
Tomando una señal visual de la biología
La cámara DVS es el primer sensor «neuromórfico» comercialmente disponible, una clase de sensores que se modelan después de los sistemas de visión en animales y seres humanos. En las primeras etapas del procesamiento de una escena, las células fotosensibles en la retina humana, por ejemplo, se activan en respuesta a cambios de luminosidad, en tiempo real.
Los sensores neuromórficos están diseñados con múltiples circuitos dispuestos en paralelo, de forma similar a las células fotosensibles, que activan y producen píxeles azules o rojos en la pantalla del ordenador en respuesta a una reducción o un aumento de brillo.
En lugar de una alimentación de video típica, un drone con una cámara DVS «vería» una representación granulada de píxeles que cambian entre dos colores, dependiendo de si ese punto en el espacio se ha iluminado u oscurecido en un momento dado. El sensor no requiere procesamiento de imágenes y está diseñado para permitir, entre otras aplicaciones, un vuelo autónomo de alta velocidad.
Los investigadores han utilizado cámaras DVS para permitir que los sistemas lineales simples vean y reaccionen ante eventos de alta velocidad, y han diseñado controladores o algoritmos para traducir rápidamente los datos DVS y llevar a cabo las respuestas apropiadas. Por ejemplo, los ingenieros han diseñado controladores que interpretan cambios de píxeles para controlar los movimientos de un portero robótico para bloquear un balón de fútbol entrante, así como para dirigir una plataforma motorizada para mantener un lápiz erguido.
Pero para cualquier sistema DVS dado, los investigadores han tenido que empezar de cero en el diseño de un controlador para traducir DVS datos de una manera significativa para ese sistema en particular.
«Los ejemplos de lápiz y portero están muy limitados geométricamente, es decir, si me das esos escenarios específicos, puedo diseñar un controlador», dice Singh. «Pero la pregunta es, ¿y si quiero hacer algo más complicado?»
Corte a través del ruido
En el nuevo trabajo del equipo, los investigadores informan del desarrollo de una especie de controlador universal que puede traducir DVS datos de una manera significativa para cualquier sistema lineal, robótico simple. La clave del controlador es que identifica el valor ideal para un parámetro que Singh llama «H», o el valor umbral de evento, que significa el cambio mínimo de brillo que el sistema puede detectar.
El establecimiento del valor de H para un sistema particular puede esencialmente determinar la sensibilidad visual del sistema: Un sistema con un valor de H bajo se programaría para capturar e interpretar los cambios en la luminosidad que van desde muy pequeño hasta relativamente grande, mientras que un valor alto de H excluiría Pequeños cambios, y solo «ver» y reaccionar a grandes variaciones de brillo.
Los investigadores formularon un algoritmo primero teniendo en cuenta la posibilidad de que ocurriría un cambio en el brillo para cada «evento» o píxel activado en un sistema particular. También estimaron la probabilidad de «eventos espurios», como un píxel que falla al azar, creando un ruido falso en los datos.
Una vez que se derivó una fórmula con estas variables en mente, fueron capaces de trabajar en un conocido algoritmo conocido como un H-infinity o controlador robusto, para determinar el valor de H para ese sistema.
El algoritmo ahora se puede utilizar para establecer la sensibilidad de una cámara DVS para detectar los cambios más esenciales en el brillo de cualquier sistema lineal dado, excluyendo las señales extrañas. Los investigadores realizaron una simulación numérica para probar el algoritmo, identificando un valor de H para un sistema lineal teórico, que encontraron capaz de permanecer estable y llevar a cabo su función sin ser interrumpido por eventos de píxeles extraños.
«Encontramos que este umbral H sirve como un» punto dulce «, para que un sistema no se sienta abrumado por demasiados eventos», dice Singh. Añade que los nuevos resultados «unifican el control de muchos sistemas» y representan un primer paso hacia robots autónomos más rápidos y estables, como el Robobee, desarrollado por investigadores de la Universidad de Harvard.
«Queremos romper ese límite de velocidad de 32 a 48 kilómetros por hora, e ir más rápido sin colisionar«, dice Singh.