Un enfoque novedoso, influenciado por humanos, para entrenar sistemas de inteligencia artificial (IA) para reconocer objetos y navegar en sus entornos para el desarrollo de sistemas de IA altamente sofisticados en entornos extremos o remotos. Puede preparar el escenario para explorar mundos. Estado de Pensilvania.
En los dos primeros años de vida, los bebés experimentan un conjunto algo más limitado de objetos y rostros, pero desde muchas perspectivas diferentes y bajo diferentes condiciones de iluminación. Inspirados por esta idea del desarrollo, los investigadores introdujeron un nuevo método de aprendizaje automático que utiliza información de posición espacial para entrenar sistemas visuales de IA de manera más eficiente. Descubrieron que los modelos de IA entrenados con el nuevo método superaron a los modelos base en un 14,99 por ciento. Informaron sus hallazgos en la edición de mayo de la revista Patterns.
“Los enfoques actuales en IA utilizan grandes conjuntos de imágenes alteradas aleatoriamente de Internet para el entrenamiento. Por el contrario, nuestra estrategia se basa en la psicología del desarrollo, que estudia cómo los niños ven el mundo”, dijo Lizhen Zhou, autora principal y candidata a doctorado. Facultad de Ciencias y Tecnología de la Información de Penn State.
Los investigadores desarrollaron un nuevo algoritmo de aprendizaje por contraste, un método de aprendizaje autosupervisado en el que un sistema de inteligencia artificial aprende a detectar patrones visuales para identificar cuándo dos imágenes se derivan de la misma imagen base, lo que da como resultado un par positivo. Sin embargo, estos algoritmos suelen tratar imágenes del mismo objeto tomadas desde diferentes perspectivas como entidades separadas en lugar de pares positivos. Según los investigadores, tener en cuenta los datos ambientales, incluida la ubicación, permite que el sistema de inteligencia artificial supere estos desafíos y detecte pares positivos, independientemente de la posición o rotación de la cámara, el ángulo o condición de iluminación y la distancia focal o los cambios de zoom.
“Nuestra hipótesis es que el aprendizaje visual de los bebés depende de la percepción de la ubicación. Para crear un conjunto de datos egocéntrico con información espaciotemporal, configuramos un entorno virtual en la plataforma ThreeDWorld, un entorno de simulación física interactivo en 3D de alta fidelidad. nos permite manipular y escalar el punto de vista de las cámaras como si un niño estuviera caminando por la casa”, añadió Zhu.
Los científicos crearon tres entornos simulados: House14K, House100K y Apartment14K, donde ’14K’ y ‘100K’ se refieren al número aproximado de imágenes de muestra tomadas en cada entorno. Luego ejecutaron veinte modelos de aprendizaje diferentes con el nuevo algoritmo y los modelos a través de tres simulaciones para ver qué tan bien clasificaban cada imagen. El equipo descubrió que los modelos entrenados con su algoritmo superaron a los modelos base en una variedad de tareas. Por ejemplo, en la tarea de reconocer una habitación en un apartamento virtual, el modelo aumentado obtuvo un rendimiento promedio del 99,35 %, lo que supone una mejora del 14,99 % con respecto al modelo base. Estos nuevos conjuntos de datos están disponibles para que otros científicos los utilicen en su formación. www.child-view.com.
James Wang, profesor distinguido de Ciencias de la Información, dijo: “Siempre es difícil para los modelos aprender en un entorno nuevo con pocos datos. Nuestro trabajo es uno de los primeros intentos de un entrenamiento de IA más enérgico y flexible utilizando contenido visual”. Y tecnología y asesor Zhu.
Según los científicos, la investigación tiene implicaciones para el desarrollo futuro de sistemas avanzados de inteligencia artificial destinados a navegar y aprender nuevos entornos.
“Este enfoque será particularmente beneficioso en situaciones en las que un equipo de robots autónomos con recursos limitados necesita aprender a navegar en un entorno completamente desconocido”, dijo Wang. “Para allanar el camino para futuras aplicaciones, planeamos mejorar nuestro modelo para explotar mejor la información espacial e incorporar entornos más diversos”.
Colegas del Departamento de Psicología y del Departamento de Ingeniería y Ciencias de la Computación de Penn State también contribuyeron al estudio. Este trabajo fue apoyado por la Fundación Nacional de Ciencias de EE. UU., así como por el Instituto de Ciencias Computacionales y de Datos de Penn State.










