Un nuevo dispositivo que ‘lee’ a la mente de una persona puede convertir sus pensamientos en una conferencia.
Un grupo de ingenieros de la Universidad de California descubrió un sistema de interfaz cerebral (BCI) innovador con electrodos que se adhieren a la piel de la cabeza de una persona para medir la actividad cerebral y las ondas cerebrales.
Las ondas cerebrales se analizan y luego se transforman en el discurso de la audible por una computadora, lo que las traduce en las palabras habladas habladas por IA.
Los investigadores creen que la nueva tecnología puede recuperar el poder de las comunicaciones al convertir la actividad cerebral en un discurso audible de una corteza motora.
La corteza motora juega un papel vital en el control del habla y se realiza una señal incluso cuando una persona pierde la capacidad de hablar.
Los investigadores nombraron modelos AI avanzados para capturar las señales cerebrales en esa área y convertirlas en palabras en aproximadamente un segundo, lo que permite la producción ininterrumpida del habla sin demora.
Probaron el BCI sobre una mujer llamada ONU, que tenía una parálisis seria y no podía hablar. Participó en un estudio previo del mismo equipo, pero su sistema fue un tiempo de retraso de ocho segundos.
Kaylo Little, un doctorado. Departamento de Ingeniería Eléctrica de UC Berkeley y estudiante de estudiante de estudiante, estudiante de estudiante, D: ‘Queríamos ver que pudiéramos generalizar en las palabras invisibles y realmente decodificar los patrones para hablar Ann.
La interfaz de computadora cerebral (BCI) permite la transmisión del habla en tiempo real más cercana sin demora utilizando el electrónico en el cráneo para capturar la función cerebral de la corteza motora Breakthrew. Fue probado en una mujer llamada ONU (ilustrada) que está paralizada y no puede hablar
“Hemos descubierto que nuestro modelo lo hace bien, lo que muestra que realmente está aprendiendo los bloques de construcción de sonido o voz”
An, que fue víctima de un derrame cerebral en el 21 que le cortó el flujo sanguíneo de su torrente sanguíneo y lo paralizó, dijo a los investigadores que el dispositivo lo ayudó a sentirse más en control de su comunicación e inmediatamente se sintió más conectado con su cuerpo.
La tecnología que decide que el cerebro agita en las oraciones habladas aún es la infancia.
En la investigación anterior, se muestra que funciona en una capacidad limitada, solo decodificando algunas palabras, pero no frases o oraciones completas.
Sin embargo, el equipo de California cree en el nuevo estudio de concepto de prueba de prueba publicado en la revista NeurocienciaLes ayudará a ‘progresar a todos los niveles’.
Varias regiones diferentes del cerebro son responsables de las conferencias, incluida la corteza motora, donde hay “huellas digitales” únicas de palabras.
En esta región, se producen firmas de ondas cerebrales específicas para cada palabra que ayuda a identificar varias palabras como ‘hola’ y ‘adiós’.
Cuando una persona intenta hablar por primera vez, el cerebro envía señales a los labios, la lengua y las cuerdas vocales y cambia el tipo de respiración para hablar.
Los investigadores capacitaron a su ‘sintetizador de habla naturalista’ para analizar y explicar la IA a la IA y transformarlos en palabras habladas.
Pusieron los electrodos en el cráneo de Ann y recolectaron la actividad de las ondas cerebrales en su corteza motora porque él ‘oye, ¿cómo estás?’ Intenté decir frases ordinarias como esta.
Un intenta hablar mientras crean pensamientos en su cabeza mientras intenta hablar con sus electrodos de corteza motora. Los investigadores habían incluido el audio de su voz antes de ser paralizados y la IA usó el modelo de habla de un texto para crear audio simulado en su voz natural.
Mientras Ann formaba una oración en su cabeza y, aunque no tenía la capacidad de hablar, su cerebro desestimó las órdenes del discurso tomado por el electrodo.
Los investigadores han dividido las diferentes señales en períodos cortos de representación en diferentes partes de la oración.
Incluyeron el audio de voz de Ann antes de paralizar y la IA usó el modelo de habla de un texto para crear audio simulado en su voz natural.
Las solicitudes de texto de Ank se mostraron, por ejemplo, ‘Hola, ¿cómo estás?’ Y mentalmente les dio una prueba: activar su corteza motora como si no se produjeran palabras.
AI ha aprendido lentamente el estilo de su discurso. Pronto puede decir que no fue entrenado para visualizar Alpha y Bravo.
El programa comenzó a reconocer las palabras que no vio en su mente, llenó ningún vacío para la formación de toda la oración.
La Dra. Gopla Aumanchipalli, co-líder de la UC Berkeley y la co-líder de la investigación, dijo: ‘Podemos ver relativamente con esa intención, obtuvimos la primera palabra en 1 segundo.
‘Y el dispositivo puede decodificar el discurso continuamente, para que Ann pueda hablar sin interrupción’ ‘
Según el Dr. Littlezhon, el programa también fue muy preciso, formó un progreso significativo en sí mismo: ‘Antes de eso, no se sabe si se puede realizar en el cerebro.
Ai se enteró gradualmente del estilo de su discurso, dejándole decir palabras que no fueron entrenadas para imaginarlo. Comenzó a reconocer palabras que no pensaban conscientemente que llenaron los huecos para hacer toda la oración.
BCI se ha interesado entre los científicos tecnológicos y los gigantes de la tecnología.
En 2023, un grupo de ingenieros de la Universidad de Brown Cerebro Pat Bennett ha plantado con éxito censores en la corteza cerebral, que tiene ELA.
Durante las 25 sesiones de entrenamiento, un algoritmo de IA decodificó las señales eléctricas del cerebro de la Sra. Bennett, aprendiendo a identificar los phonms: el discurso requerido suena como ‘sha’ y ‘th’ basado en actividades nerviosas.
Las ondas del cerebro decodificado se alimentaron como un modelo de lenguaje, que las combina en palabras y demuestra su discurso previsto en una pantalla.
Cuando el vocabulario se limitaba a 50 palabras, la tasa de error era de aproximadamente el nueve por ciento, pero cuando el vocabulario se expandió a 125,000 palabras, cuando una persona quería decir, eran casi todas las palabras que rodearon el 23 por ciento, dijeron los investigadores.
Los resultados del estudio no contaron las palabras correctas en el momento de la finalización de la capacitación, pero los investigadores ahora saben que el equipo de aprendizaje automático es capaz de reconocer miles de palabras.
Los resultados están lejos de ser perfectos para perfeccionar, pero creen que su búsqueda ha marcado la piedra de un paso importante hacia la perfección de los sistemas de voz de las ondas cerebrales.
Mientras tanto, se plantó a 29 años de Noland en los árabes en enero de 2024, se plantó la máscara neural de Elon, lo que lo convirtió en el primer participante humano en el ensayo neuralmente de prueba.
Elon Kastor’s Neurally fue plantado en árabes en enero de 2024, lo convirtió en el primer participante humano en el ensayo clínico de neuralmente.
La interfaz cerebro-computadora (BCI) del Neuralink permite el contacto directo entre el cerebro y el dispositivo externo como una computadora o un teléfono inteligente
En el 28 de 2016, Arabag sufrió un trauma mortal del cerebro que no pudo dejarlo caer de su hombro al hombro.
Fue elegido unos años más tarde para tomar el examen clínico del dispositivo, permitiendo el contacto directo entre el cerebro y los dispositivos externos como una computadora o un teléfono inteligente.
El chip neural plantado en el cerebro de los árabes está conectado a más de mil electrodos establecidos en la corteza motora.
Cuando funcionan las neuronas, los objetivos de señal en forma de mano, los electrodos capturan estas señales. Los datos de forma inalámbrica se transmiten a una aplicación, de modo que permita a Arabag controlar los dispositivos con sus pensamientos.
Urbag compara el cursor de la computadora usando neurral para calibrar: crea la izquierda o la derecha sobre la base de la pista y el sistema ha aprendido sus objetivos con el tiempo.
Cinco meses después con el dispositivo, descubrió que la vida se ha desarrollado, especialmente a través de mensajes de texto, donde ahora puede enviar mensajes en segundos.
Su navegador no admite el IFFrames.
Utiliza un teclado virtual y equipos de dictado personalizado y juega a Chess y Mario Cart utilizando la misma tecnología de cursor.
Los resultados del equipo de investigación de la Universidad de California han identificado un avance que espera que los investigadores creen conferencias naturales con dispositivos BCI y faciliten un mayor progreso.
El Dr. Little John dice: ‘Este es un trabajo continuo, estamos en la tarea continua de tratar de ver qué tan bien estas características lingüísticas pararales pueden decodificar de la actividad cerebral.
“Incluso en el campo de síntesis de audio clásico es un problema a largo plazo y moverá el intervalo completo y completamente natural”.











