Home Apple La investigación de Apple insinúa cómo los futuros AirPods podrían leer señales...

La investigación de Apple insinúa cómo los futuros AirPods podrían leer señales cerebrales

12

Un nuevo estudio realizado por investigadores de Apple presenta un método que permite que un modelo de IA aprenda un aspecto de la estructura de la actividad eléctrica del cerebro sin ningún dato anotado. Así es como.

Desplazamiento relativo por pares

Un nuevo estudio dice “Aprender la estructura relativa de las señales de EEG mediante el preentrenamiento de desplazamiento relativo por pares”, Apple presentó PARS, que es la abreviatura de PAirwise Relative Shift.

Los modelos actuales dependen en gran medida de datos anotados por humanos para la actividad cerebral, que indican qué segmentos corresponden a las etapas del sueño de vigilia, REM, no REM1, no REM2 y no REM3, así como las ubicaciones de inicio y finalización de los eventos convulsivos.

En resumen, lo que hizo Apple fue conseguir un modelo que se enseñara a predecir con qué distancia en el tiempo ocurren diferentes partes de la actividad cerebral, basándose en datos sin procesar y sin etiquetar.

Imagen: Aprendizaje de la estructura relativa de las señales de EEG mediante un preentrenamiento de desplazamiento relativo por pares

De la investigación:

“El aprendizaje autosupervisado (SSL) ofrece un método prometedor para aprender representaciones de electroencefalografía (EEG) a partir de datos no etiquetados, lo que reduce la necesidad de costosas anotaciones para aplicaciones clínicas como la estadificación del sueño y la detección de convulsiones. Aunque los métodos actuales de EEG SSL utilizan principalmente técnicas de reconstrucción enmascarada que utilizan técnicas de manipulación local, la predicción de ubicación sigue estando preentrenada a pesar del potencial para aprender dependencias de largo alcance en patrones y señales neuronales. A continuación, presentamos el preentrenamiento PAirwise Relative Shift o PARS, que predice el cambio temporal relativo entre pares de ventanas de EEG muestreados aleatoriamente, que aprovecha los métodos de reconstrucción basados ​​en NPA. A través de una evaluación exhaustiva de la composición temporal y la dependencia de largo alcance de varias tareas de decodificación de EEG, demostramos que los transformadores entrenados con PARS superan consistentemente las técnicas de pre-entrenamiento existentes en entornos de aprendizaje de transferencia y etiquetas eficientes, para un nuevo EEG.

En otras palabras, los investigadores descubrieron que los métodos existentes entrenan principalmente modelos para llenar pequeños huecos en la señal. Entonces exploraron si una IA podría aprender la estructura amplia de las señales de EEG directamente a partir de datos sin procesar y sin etiquetar.

Resulta que sí puede.

En el artículo, describen un método de aprendizaje autosupervisado para predecir cómo pequeñas partes de una señal de EEG se relacionan entre sí a lo largo del tiempo, lo que puede permitir un mejor rendimiento en múltiples tareas de análisis de EEG, desde las etapas del sueño hasta la detección de convulsiones.

Los resultados fueron prometedores, ya que el modelo entrenado con PARS superó o igualó los métodos anteriores en tres de los cuatro diferentes puntos de referencia de EEG probados.

Imagen: Aprendizaje de la estructura relativa de las señales de EEG mediante un preentrenamiento de desplazamiento relativo por pares

¿Pero qué tiene esto que ver con los AirPods?

Estos cuatro conjuntos de datos fueron utilizados por el modelo entrenado con PARS:

  1. Estadificación del sueño portátil (EESM17)
  2. Detección de EEG anormal (TUAB)
  3. Detección de convulsiones (TUSZ)
  4. Imágenes motoras (fisionet-MI).

En el primer conjunto de datos, EESM17 se refiere a Ear-EEG Sleep Monitoring 2017, que incluye “grabaciones nocturnas de 9 sujetos con un sistema de EEG de oído portátil de 12 canales y un sistema de EEG de cuero cabelludo de 6 canales”.

Así es como se ve un sistema EEG de oído:

Aunque el EEG de oído utiliza electrodos diferentes a los de un sistema de cuero cabelludo estándar, aún puede captar de forma independiente muchas señales cerebrales clínicamente relevantes, como las etapas del sueño y patrones específicos relacionados con las convulsiones.

Y dado que el conjunto de datos EESM17 se utilizó en un estudio de Apple, que ha incorporado múltiples sensores de salud en sus dispositivos portátiles en los últimos años, no es difícil imaginar un mundo en el que Airpods Obtenga un sensor EEG, más como este Airpods Pro 3 Recientemente recibió un sensor de fotopletismógrafo (PPG) para detectar la frecuencia cardíaca.

Y aquí está el truco: en 2023, Apple Presentó una solicitud de patente “Un dispositivo electrónico portátil para medir bioseñales en un usuario”.

La patente menciona claramente los dispositivos EEG de oído como una alternativa a los sistemas del cuero cabelludo, al tiempo que presenta sus limitaciones:

“La actividad cerebral se puede monitorear usando electrodos colocados en el cuero cabelludo del usuario. En algunos casos, los electrodos se pueden colocar dentro o alrededor del oído externo del usuario. Puede ser preferible medir la actividad cerebral usando electrodos colocados dentro o alrededor del oído externo debido a ventajas tales como movilidad reducida del dispositivo y visibilidad reducida de los electrodos en comparación con otras ubicaciones alrededor del dispositivo. Sin embargo, para una medición precisa de la actividad cerebral usando un dispositivo de electroencefalografía (EEG) de oído, EEG de oído, es posible que sea necesario personalizar el dispositivo para el oído del usuario (por ejemplo, tal vez personalizado para la cornisa, el canal auditivo, el turgus, etc.) del usuario), y los electrodos pueden estar en contacto continuo con el dispositivo debido a que el tamaño y la forma de la oreja de un usuario varían, y el tamaño y la forma del canal auditivo de un usuario pueden cambiar con el tiempo, incluso un dispositivo de EEG de oído personalizado puede no producir mediciones precisas con el tiempo (o, con el tiempo, un dispositivo de EEG personalizado puede hacerlo).

Luego, la patente de Apple esencialmente incluye más sensores de los necesarios distribuidos alrededor de las puntas de los oídos de los AirPods, y un modelo de IA utiliza métricas como la impedancia, el nivel de ruido, la calidad del contacto con la piel y la distancia entre los electrodos activos y de referencia para resolver estas limitaciones seleccionando los electrodos con la mejor calidad de señal.

Figura: Dispositivo de detección de bioseñales que utiliza selección dinámica de electrodos

Luego, asigna diferentes pesos a cada electrodo para combinar todas las señales en una única forma de onda optimizada. La patente incluso describe un gesto de tocar o presionar que iniciaría o detendría la medición, así como múltiples opciones de diseño e ingeniería que harían todo esto posible.

Imagen: Dispositivo de detección de bioseñales que utiliza selección dinámica de electrodos.

Finalmente, Apple dice que “la medición de bioseñales, por lo tanto, se puede utilizar para informar al usuario sobre diversos casos de uso impulsados ​​por bioseñales, como la monitorización del sueño u otras anomalías, como las convulsiones”, que generalmente es el mismo ejemplo de la nueva investigación.

Pero seamos claros: el nuevo estudio no menciona eso Airpods y no tiene conexión con la solicitud de patente de 2023. Una investigación sobre si un modelo puede aprender a predecir intervalos de tiempo entre ondas cerebrales a partir de datos no etiquetados utilizando mediciones de EEG de oído como parte de su conjunto de datos.

Sin embargo, sería interesante ver a Apple investigar el hardware para recopilar estos datos, así como un modelo de inteligencia artificial que mejoraría lo que sucede después de que se recopilan estos datos. Queda por ver si esto realmente se convertirá en un producto o característica.

Grandes ofertas del Black Friday 2025

Enlace fuente