La gran cantidad de información proporcionada por nuestros sentidos que permiten que nuestras mentes visiten el mundo que nos rodea. Un fuerte sentido del tacto, el olor, la audición y el equilibrio es muy importante para que parezca un ambiente simple para nosotros, como un aumento cómodo en la mañana.

Una comprensión natural de la sobrecarga del paraguas nos ayuda a saber a dónde va el camino. El fuerte chasquido de ramas o el cojín suave del musgo nos hace conscientes de la estabilidad de nuestra base. La caída del árbol cae o bailando en los fuertes vientos puede hacernos conscientes de los peligros potenciales.

Por el contrario, los robots se han basado completamente en información visual como la cámara o el cuero para ir al mundo. Fuera del Hollywood, el largo ha sido desafiante durante mucho tiempo para las máquinas de navegación múltiples sensoriales. Con el hermoso caos del bosque, denso interior, números que caen y siempre cambiando regiones, la incertidumbre para el robot tradicional es un laberinto.

Ahora, los investigadores de la Universidad de Duke han desarrollado un marco novedoso nombrado Fusión salvaje Lo que fusiona la visión, la vibración y el tacto para permitir que el robot “sienta” un entorno complicado al aire libre como los humanos. El trabajo fue recientemente aceptado en la Conferencia Internacional de Robótica y Automatización de IEE (ICRA 2025), que se llevará a cabo del 19 al 23 de mayo de 2025 en Atlanta, Georgia.

Fusión salvaje “La navegación robótica y el mapeo 3D abre un nuevo capítulo”, dijo Boyan Chen, profesor asistente de la familia Dickenson de Ingeniería Mecánica y Ciencia de Materiales, Ingeniería Eléctrica e Informática “, Ingeniería Eléctrica e Informática e Informática en la Universidad de Duke.

“Los robots comunes solo dependen en gran medida de la visión o el cuero, que a menudo cae sin caminos o predicciones claras”, Yanbihoi Liu, autor principal y doctorado en el otro año. Estudiante en el laboratorio de Chen. “Incluso cuando los datos del sensor son virales, ruido o incompletos, la mapa moderna está luchando por la reorganización de un mapa permanente, que es un problema continuo en un entorno externo no impuesto. Este es un desafío. Fusión salvaje Diseñado para resolver. “

Fusión salvaje, Hecho en el robot cuadrado, conecta múltiples métodos de detección, que incluyen una cámara RGB, cuero, sensor de inercia y, en particular, comuníquese con el micrófono y el sensor SuperSh. Como en el punto de vista tradicional, la cámara y el entorno de cuero ocupan la geometría, el color, la distancia y otros detalles visuales. ¿Qué hace? Fusión salvaje Especial es el uso de vibración y tacto de sonido.

Cuando el robot opera, los micrófonos de contacto registran la vibración única creada por cada paso, que captura las diferencias sutiles, como un alivio suave de lodo en comparación con la falta de hojas secas. Mientras tanto, los sensores SuperSh miden cuánta potencia se aplica a cada pie, lo que ayuda a la sensación de estabilidad del robot o en tiempo real. Estos sentidos adicionales también se completan a través del sensor intérico que recopila los datos del acné para determinar cuánto está girando, lanzando o rodando el robot porque cruza un terreno desigual.

Posteriormente, todo tipo de figuras sensoriales se procesan a través de codificadores especiales y se encuentra en la misma representación completa. En el corazón de Fusión salvaje Un modelo de aprendizaje profundo basado en la idea de la representación nerviosa. A diferencia de los métodos tradicionales que consideran el entorno como un depósito de puntos discriminatorios, este enfoque hace niveles y características complejas de modelos permanentemente, lo que permite tomar decisiones cada vez más intuitivas sobre dónde va el robot, incluso cuando su enfoque está bloqueado o ambiguo.

Chen explicó: “Piense en ello como resolver un rompecabezas donde faltan algunas piezas, pero aún puede imaginar toda la imagen intuitiva”, dijo Chen. “Fusión salvajeCuando los datos del sensor son virales o ruidosos, como lo hace un ser humano, al igual que las tareas humanas, las ‘vistas multimodales permiten que el robot’ llene los espacios. “

Fusión salvaje Cerca del campus de Duke, Carolina del Norte fue probada en el Parque Estatal Anno River, que ayudó con éxito al robot con éxito en bosques densos, campos de hierba y rutas de grava. Liu compartió: “Fue increíblemente beneficioso ver la región navegadora del robot con confianza”. “Resultó ser realizaciones reales -mundo Fusión salvajeLas notables cualidades de predecir la precisión de las dificultades mejoran significativamente la decisión del robot en rutas seguras a través de regiones desafiantes. “

Mirando hacia el futuro, el equipo tiene la intención de mejorar el sistema agregando sensores adicionales, como detección adicional, térmica o de humedad para mejorar aún más el entorno complicado. Con su diseño modular elástico, Fusión salvaje Proporciona amplias aplicaciones potenciales fuera de las rutas forestales, incluida la respuesta a desastres a regiones inesperadas, inspección de infraestructura remota y búsqueda independiente.

“Hoy, hoy está desarrollando un sistema de desafío importante para la robótica que no solo funciona bien en el laboratorio, sino que también funciona de manera confiable en entornos del mundo real”, dijo Chen. “Esto significa que los robots que pueden comprometerse pueden tomar decisiones y pueden mantener el mundo incluso cuando está sucio”.

Esta investigación fue respaldada por DARPA (HR00112490419, HR00112490372) y Laboratorio de Investigación del Ejército (W911NF2320182, W911NF2220113).

Source link