Home Smartwatch Los investigadores desarrollan un dispositivo de vanguardia para hacer que la inteligencia...

Los investigadores desarrollan un dispositivo de vanguardia para hacer que la inteligencia artificial sea más eficiente energéticamente.

206

Investigadores de ingeniería de la Universidad de Minnesota Twin Cities han demostrado un dispositivo de hardware innovador que puede reducir el consumo de energía en un factor de al menos 1000 para aplicaciones informáticas de inteligencia artificial (IA).

Publicado en investigación. Computación no convencional NPJUna revista científica revisada por pares publicada por Nature. Los investigadores poseen varias patentes sobre la tecnología utilizada en el dispositivo.

Con la creciente demanda de aplicaciones de IA, los investigadores están buscando formas de crear procesos más eficientes energéticamente, manteniendo al mismo tiempo la eficiencia alta y los costos bajos. En general, el proceso de transferencia de datos entre la lógica (donde se procesa la información dentro del sistema) y la memoria (donde se almacenan los datos) en procesos de máquina o inteligencia artificial consume grandes cantidades de potencia y energía.

Un equipo de investigadores de la Facultad de Ciencias e Ingeniería de la Universidad de Minnesota demostró un nuevo modelo en el que los datos nunca salen de la memoria, llamado memoria computacional de acceso aleatorio (CRAM).

“Este trabajo es la primera demostración experimental de CRAM, donde los datos se pueden procesar completamente en una matriz de memoria, sin la necesidad de salir de la red donde la computadora almacena la información”, dijo Yang L.V., del Departamento de Electricidad de la Universidad de Minnesota. e Ingeniería Informática dijo. Investigador postdoctoral y primer autor del artículo.

La Agencia Internacional de Energía (AIE) publicó su Pronóstico global de uso de energía en marzo de 2024, prediciendo que el consumo de energía para la IA se duplicará de 460 teravatios hora (TWh) en 2022 a 460 teravatios hora (TWh) en 2026. 1.000 TWh. Es casi igual a eso. Consumo de electricidad de todo el país de Japón.

Según los autores del nuevo artículo, se estima que un acelerador de inferencia de aprendizaje automático basado en CRAM logrará mejoras del orden de 1.000. Otro ejemplo mostró ahorros de energía de 2.500 y 1.700 veces en comparación con los métodos convencionales.

Esta investigación lleva más de dos décadas en desarrollo.

“Hace veinte años, nuestro concepto inicial de utilizar directamente células de memoria para la informática se consideraba una locura”, dijo Jianping Wang, autor principal del artículo y profesor distinguido de McKnight en el Departamento de Ingeniería Eléctrica e Informática, Robert F. Hartman. Universidad de Minnesota.

“Con un grupo emergente de estudiantes y un equipo docente verdaderamente interdisciplinario creado en la Universidad de Minnesota desde 2003, desde física, ciencia e ingeniería de materiales, ciencias informáticas e ingeniería hasta modelado y evaluación comparativa, y creación de hardware, pudimos lograr resultados positivos y ahora hemos demostrado que este tipo de tecnología es viable y está lista para ser incorporada a la tecnología”, dijo Wang.

La investigación es parte de un esfuerzo coordinado y de larga data que se basa en la innovadora investigación patentada de Wang y sus colegas sobre dispositivos de uniones de túnel magnético (MTJ), que se utilizan para optimizar discos duros, sensores y otros sistemas microelectrónicos. , incluida la memoria magnética de acceso aleatorio (MRAM), que se ha utilizado en sistemas integrados como microcontroladores y relojes inteligentes.

La arquitectura CRAM permite la computación real en y a través de la memoria y derriba el muro entre la computación y la memoria como barrera a la arquitectura tradicional de von Neumann, un diseño teórico para una computadora con programa almacenado que sirve como base de todas las computadoras modernas. .

“Como sustrato de computación en memoria basado en datos digitales altamente eficiente en energía, CRAM es muy flexible en el sentido de que los cálculos se pueden realizar en cualquier parte de la matriz de memoria. Algoritmos de IA”, dijo el experto en arquitectura informática, Ilya Karpuzko, coautor del artículo. y profesor asociado en el Departamento de Ingeniería Eléctrica e Informática de la Universidad de Minnesota. “Es más eficiente energéticamente que los componentes tradicionales de los sistemas de IA actuales”.

Carpuzco explicó que CRAM utiliza la estructura de la matriz de manera eficiente, realizando cálculos directamente dentro de las celdas de memoria, eliminando la necesidad de transferencias de datos lentas y que consumen mucha energía.

El dispositivo de memoria de acceso aleatorio a corto plazo, o RAM, más eficiente utiliza cuatro o cinco transistores para codificar unos o ceros, pero un MTJ, un dispositivo espintrónico, utiliza la misma alta velocidad, con una fracción de la energía. y es flexible para entornos hostiles. Los dispositivos espintrónicos aprovechan el espín de los electrones en lugar de la carga eléctrica para almacenar datos, proporcionando una alternativa más eficiente a los chips tradicionales basados ​​en transistores.

Actualmente, el equipo planea trabajar con líderes de la industria de semiconductores, incluso en Minnesota, para realizar demostraciones a gran escala y desarrollar hardware para mejorar la funcionalidad de la IA.

Además de Lv, Wang y Karpuzcu, el equipo incluyó a los investigadores Robert Bloom y Husrev Cilasun del Departamento de Ingeniería Eléctrica e Informática de la Universidad de Minnesota. el distinguido profesor McKnight y presidente Robert y Marjorie Henle, Sachin Sapatnekar; y los ex investigadores postdoctorales Brandon Zink, Zamshed Chaudhary y Salonik Resch; Con investigadores de la Universidad de Arizona: Praveen Khanal, Ali Habibglu y el profesor Weigang Wang

Este trabajo fue apoyado por subvenciones de la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. (DARPA), el Instituto Nacional de Estándares y Tecnología (NIST), la Fundación Nacional de Ciencias (NSF) y Cisco Inc. La investigación, incluida la creación de patrones de nanodispositivos, se llevó a cabo en el NanoCenter de Minnesota y el trabajo de simulación/cálculo se realizó con el Instituto de Supercomputación de la Universidad de Minnesota. Para leer el artículo de investigación completo titulado “Demostración experimental de memoria computacional de acceso aleatorio basada en unión de túnel magnético” Computación no convencional NPJ sitio web

Source link