El mundo que nos rodea es constantemente captado por sistemas de radar adaptativos. Desde salinas hasta montañas y todo lo demás, el radar adaptativo se utiliza para detectar, localizar y rastrear objetos en movimiento. El hecho de que los ojos humanos no puedan ver estos rangos de frecuencia ultra alta (UHF) no significa que no estén tomando fotografías.
Aunque los sistemas de radar adaptativos existen desde la Segunda Guerra Mundial, han topado con un muro de rendimiento fundamental en las últimas dos décadas. Pero con la ayuda de enfoques avanzados de IA y las lecciones aprendidas de la visión por computadora, los investigadores de la Universidad de Duke han derribado ese muro y quieren traer consigo a todos los que están en el campo.
En un nuevo artículo publicado el 16 de julio en la revista Radar, sonda y navegación IET, Los ingenieros de Duke muestran que el uso de redes neuronales convolucionales (CNN), un tipo de IA que revolucionó la visión por computadora, puede mejorar en gran medida los sistemas de radar adaptativos modernos. Y en un movimiento paralelo al impulso detrás del auge de la visión por computadora, han publicado un gran conjunto de datos de escenas digitales para que otros investigadores de IA avancen en su trabajo.
“Los métodos de radar clásicos son geniales, pero no son lo suficientemente buenos para satisfacer la demanda de la industria de productos como vehículos autónomos”, dijo Shyam Venkatasubramanian, un asistente de investigación graduado que trabaja en el laboratorio de Vahid Tarukh, son profesores de electricidad y de la familia Rhodes. Ingeniería Informática en Duke. “Estamos trabajando para llevar la IA al espacio del radar adaptativo para abordar problemas como la detección, localización y seguimiento de objetos que la industria necesita resolver”.
En su nivel más básico, el radar no es difícil de entender. Se transmite un pulso de ondas de radio de alta frecuencia y una antena recopila datos de las ondas que rebotan. Sin embargo, a medida que la tecnología ha avanzado, también lo han hecho los conceptos utilizados por los sistemas de radar modernos. Con la capacidad de dar forma y dirigir señales, procesar múltiples conexiones a la vez y filtrar el ruido de fondo, la tecnología ha avanzado mucho en el último siglo.
Pero el radar sólo ha llegado tan lejos como para poder utilizar estas técnicas por sí solo. Los sistemas de radar adaptativos todavía tienen dificultades para localizar y rastrear con precisión objetos en movimiento, especialmente en entornos complejos como terrenos montañosos.
Para llevar el radar adaptativo a la era de la IA, Venkatasbramaniam y Tarukh se inspiraron en la historia de la visión por computadora. En 2010, investigadores de la Universidad de Stanford publicaron una enorme base de datos de imágenes que contenía más de 14 millones de imágenes comentadas llamada ImageNet. Investigadores de todo el mundo utilizaron ImageNet para probar y comparar nuevos métodos de IA, que se convirtieron en el estándar de la industria.
En el nuevo artículo, Venkata Subramaniam y sus colegas muestran que el uso de los mismos métodos de IA mejora enormemente el rendimiento de los sistemas de radar adaptativos existentes.
“Nuestra investigación es paralela a la investigación de los primeros usuarios de la IA en la visión por computadora y los creadores de ImageNet, pero bajo el radar adaptativo”, dijo Venkatasbramanin. “Nuestra IA propuesta toma datos de radar procesados y predice la ubicación del objetivo a través de una arquitectura simple que puede considerarse como precursora de las arquitecturas modernas de visión por computadora”.
Si bien el grupo aún tiene que probar sus métodos en el campo, compararon el rendimiento de su IA con la herramienta de modelado y simulación RFView®, que obtiene su precisión agregando la topografía y el terreno de la Tierra a su caja de herramientas de modelado. Luego, siguiendo los pasos de la visión por computadora, crearon 100 escenarios de radar aéreo basados en paisajes de todo Estados Unidos y los lanzaron como un activo de código abierto llamado “RASPNet”.
Este es un activo valioso, ya que sólo unos pocos equipos tienen acceso a RFView®. Sin embargo, los investigadores obtuvieron un permiso especial de los creadores de RFView® para crear el conjunto de datos (que contiene más de 16 terabytes de datos creados durante varios meses) y ponerlo a disposición del público.
“Estoy encantado de que se haya publicado este importante trabajo y, en particular, de que los datos relevantes estén disponibles en el repositorio de RASPNet”, afirmó Hugh Griffiths, miembro de la Real Academia de Ingeniería, miembro del IEEE y miembro del IET. , OBE y la Cátedra de la Real Academia de Sensores de RF en THALES/University College London, que no participaron en este trabajo. “Esto sin duda alentará a seguir trabajando en este importante ámbito y garantizará que los resultados puedan compararse fácilmente entre sí”.
Los escenarios incluidos fueron seleccionados cuidadosamente por expertos en radar y aprendizaje automático y tienen una amplia gama de complejidad geográfica. El lado más fácil para manejar el sistema de radar adaptativo es el Salar de Bonneville, mientras que el más difícil es el Monte Rainier. Venkata Subramaniam y su grupo esperan que otros tomen sus ideas y conjuntos de datos y creen enfoques de IA aún mejores.
Por ejemplo, en un artículo anterior, Venkata Subramanian demostró que una IA adaptada a una ubicación geográfica específica puede lograr una mejora hasta siete veces mayor en la localización de objetos que los métodos clásicos. Si una IA puede elegir un escenario en el que ya ha sido entrenada y que sea similar a su entorno actual, debería mejorar significativamente el rendimiento.
“Creemos que esto tendrá un impacto realmente grande en la comunidad de radares adaptativos”, dijo Venkatasbramanian. “A medida que avanzamos y continuamos agregando capacidades al conjunto de datos, queremos brindar a la comunidad todo lo que necesita para avanzar en el campo del uso de la IA”.
Este trabajo fue apoyado por la Oficina de Investigación Científica de la Fuerza Aérea (FA9550-21-1-0235, 20RYCORO51, 20RYCOR052).










