Una nueva investigación de la Universidad Johns Hopkins muestra que los sistemas de inteligencia artificial construidos con diseños de inspiración biológica pueden comenzar a parecerse a la actividad del cerebro humano incluso antes de que sean entrenados con datos. Las investigaciones sugieren que la forma en que se estructura la IA es tan importante como la cantidad de datos que procesa.
Resultados, publicados La naturaleza es inteligencia artificialDesafiar las estrategias dominantes en el desarrollo de la IA. En lugar de depender de meses de capacitación, conjuntos de datos masivos y una potencia informática masiva, la investigación destaca el valor de comenzar con bases arquitectónicas similares al cerebro.
Repensar los enfoques de la IA con uso intensivo de datos
“La forma en que avanza el campo de la IA en este momento es arrojar una gran cantidad de datos a los modelos y construir recursos computacionales del tamaño de ciudades pequeñas. Eso costaría cientos de miles de millones de dólares. Mientras tanto, los humanos han aprendido a usar muy pocos datos”, dijo el autor principal Mick Bonner, profesor asistente de ciencia cognitiva en la Universidad Johns Hopkins. “La evolución puede estar integrada en este diseño por una buena razón. Nuestro trabajo sugiere que los diseños arquitectónicos que se parecen más al cerebro colocan a los sistemas de IA en un comienzo muy ventajoso”.
Bonner y sus colegas pretendían probar si la arquitectura por sí sola podría dar a los sistemas de IA un punto de partida más humano, en lugar de depender de una formación a gran escala.
Comparación de arquitecturas de IA populares
El equipo de investigación se centró en tres tipos principales de diseños de redes neuronales comúnmente utilizados en los sistemas de IA modernos: transformadores, redes totalmente conectadas y redes neuronales convolucionales.
Ajustan repetidamente estos diseños para crear docenas de redes neuronales artificiales diferentes. Ninguno de los modelos fue entrenado previamente. Luego, los investigadores mostraron a los sistemas no entrenados imágenes de objetos, personas y animales y compararon su actividad interna con las respuestas cerebrales de humanos y primates no humanos que veían las mismas imágenes.
Por qué se destacan las redes convolucionales
Aumentar el número de neuronas artificiales en redes transformadoras y completamente conectadas produce pocos cambios significativos. Sin embargo, combinaciones similares de redes neuronales convolucionales conducen a patrones de actividad que se asemejan más a los observados en el cerebro humano.
Según los investigadores, estos modelos convolucionales no entrenados funcionan a la par de los sistemas de IA tradicionales que normalmente requieren millones o incluso miles de millones de exposiciones de imágenes. Los resultados sugieren que la arquitectura juega un papel más importante de lo que se creía anteriormente en la configuración del comportamiento similar al cerebro.
Una vía rápida hacia la IA inteligente
“Si el entrenamiento en big data es realmente el factor importante, entonces no debería haber manera de llegar a un sistema de inteligencia artificial similar al cerebro sólo mediante cambios arquitectónicos”, dijo Bonner. “Esto significa que si comenzamos con el modelo correcto y quizás incorporamos otros conocimientos de la biología, podremos acelerar drásticamente el aprendizaje en los sistemas de IA”.
El equipo ahora está explorando métodos de aprendizaje simples inspirados en la biología que podrían conducir a una nueva generación de marcos de aprendizaje profundo, lo que podría hacer que los sistemas de inteligencia artificial sean más rápidos, más eficientes y menos dependientes de enormes conjuntos de datos.











