El proceso de descubrir moléculas que tienen las características necesarias para producir nuevos medicamentos y contenido es oneroso y costoso, que utiliza recursos computacionales extensos y meses de trabajo humano para reducir los posibles candidatos.
Los modelos de idiomas grandes como Chat GPT (LLM) pueden suavizar este proceso, pero permitir que una LLM entienda y discutan sobre nuclear y enlaces que forman moléculas, así como palabras que forman oraciones, un bloqueo científico.
Los investigadores de MIT y MIT-IBM Watson AI Lab han desarrollado un enfoque prometedor que mejora la LLM con otros modelos de aprendizaje automático conocidos como modelos gráficos, que está específicamente diseñado para desarrollar y pronosticar la estructura molecular.
Sus procedimientos usan Base LLM para traducir preguntas de lenguaje natural que describan las características moleculares deseadas. Cambia automáticamente a un plan de paso por paso de diseñar, diseñar, describir la racionalidad, describir la racionalidad y convertirlo en un plan de paso por paso. Es inteligente el texto, el gráfico y la generación de fase de síntesis, que combina palabras, gráficos y reacciones para usar LLM. En palabras compartidas.
En comparación con el punto de vista actual basado en LLM, esta técnica multimodal creó moléculas que son mejores que las especificaciones del usuario y tienen más probabilidades de hacer un plan de síntesis preciso, lo que hace que la relación éxito sea mejor del 5 % al 35 %.
También funcionó mejor para LLM, que es más de 10 veces su tamaño, y esos diseños solo tienen una representación basada en texto, lo que sugiere que multilateral es la clave para el éxito del nuevo sistema.
“Se espera que esto se pueda resolver desde un extremo hasta el final, desde el principio hasta el final, automáticamente haremos todo el proceso de diseño y fabricación de moléculas. Si LLM puede responderle en solo unos segundos, será un gran ahorro de tiempo para las compañías farmacéuticas”, un graduado y un socio del MIT.
Los Co -Authors of the Sun incluyen Gang Liu, un estudiante graduado, un estudiante graduado en la Universidad de Notre Dam. El profesor de ingeniería eléctrica e informática Wojaik Matksk, que guía el Laboratorio de Informática e Inteligencia Artificial (CSAIL) en el MIT. Meng Jiang, profesor asociado en la Universidad de Notre Dam; Y el autor senior G Chen, científico y gerente de investigación senior en el laboratorio MIT-IBM Watson AI. Esta investigación se presentará en la Conferencia Internacional sobre Aprendizaje.
Mejor en ambos mundos
Los modelos de idiomas grandes no se crean para comprender los matices de la química, que es una de las razones por las cuales luchan con el diseño molecular inverso, el proceso de identificación de la estructura de inoleración que tiene algunos trabajos o características.
LLMS transforma el texto en una representación de token, que usan para predecir la siguiente palabra en una oración. Pero las moléculas son “estructuras gráficas”, que contienen átomos y enlaces que no tienen una configuración especial, lo que las hace difíciles de codificar como un texto de secuencia.
Por otro lado, el potente modelo AI basado en el gráfico representa el átomo y los enlaces moleculares como nodos y bordes integrados en el gráfico. Aunque estos modelos son populares para el diseño molecular al alza, necesitan entradas complejas, no pueden entender el lenguaje natural y los resultados pueden ser difíciles de traducir.
Los investigadores del MIT se unieron a la LLM con modelos de IA basados en gráficos en un marco unido que es mejor en ambos mundos.
Lilamol, que representa el gran modelo de lenguaje grande grande, utiliza Base LLM como guardián de la puerta para comprender la consulta del usuario.
Por ejemplo, quizás un usuario busca una molécula que pueda penetrar el cerebro sanguíneo y prevenir el VIH, porque tiene algunas características del peso molecular y algunos de los enlaces.
Como el LLM predijo el texto en respuesta a la investigación, cambia entre los módulos de gráficos.
Un módulo utiliza un modelo gráfico para desarrollar una estructura molecular sujeta a los requisitos de entrada. El segundo módulo utiliza la red neuronal gráfica para devolver la estructura molecular hecha por LLMS al token. El módulo gráfico final predice una reacción gráfica que toma una estructura molecular intermedia como entrada y predice una fase de reacción, que busca un conjunto preciso de pasos de pasos para hacer moléculas a partir de los bloques de construcción básicos.
Los investigadores formaron un nuevo tipo de token de estímulo que le dice a LLM cuándo se va a activar cada módulo. Cuando el LLM predice el token desencadenante del “diseño”, se convierte en un módulo que produce una estructura molecular, y cuando predijo el token de desencadenante “retro”, se convierte en el módulo de planificación santtaica retro que predice la siguiente etapa de reacción.
Sun dice: “La belleza de esto es que todo se crea antes de LLM antes de activar un módulo en particular.
De la misma manera, la producción de cada módulo se codifica y se remonta al proceso de reproducción de LLM, por lo que comprende lo que cada módulo ha hecho y continuará predeciendo el token en función de estos datos.
Mejores estructuras moleculares fáciles
Finalmente, la estructura inocente de Lamul desarrolla una imagen de la molécula, y un plan de síntesis de paso por paso que proporciona detalles de los métodos para hacerla, la reacción química individual está inactiva.
En las experiencias que son similares a las especificaciones del usuario, Lemol tuvo un mejor rendimiento a 10 LLM estándar, cuatro LLM de finales finos y procedimientos específicos relacionados con el último dominio. Al mismo tiempo, creó las moléculas que son de alta calidad, lo que significa que tienen estructuras simples y bloques de construcción a un costo menor.
“A través de ellos, LLM lucha por descubrir cómo combinar moléculas, ya que necesita mucha planificación de múltiples topes. Nuestro método puede desarrollar mejores moléculas, lo que también es fácil de hacer”.
Para capacitar y evaluar el lilamol, los investigadores crearon dos datos desde el principio porque no hubo detalles en los datos existentes de la estructura molecular. Promovió cientos de miles de moléculas de patentes, con las plantillas de la descripción del lenguaje natural y la explicación específica de las moléculas generadas por IA.
El conjunto de datos que hizo para arreglar el LLM incluye 10 plantillas relacionadas con las características moleculares, por lo que un límite para los limones es que solo las características de 10 dígitos están entrenadas para diseñar moléculas.
En el trabajo futuro, los investigadores quieren normalizar el limón para que puedan agregar cualquier propiedad molecular. Además, tienen la intención de mejorar el módulo gráfico para aumentar la tasa de éxito del limulus.
Y a la larga, esperan que este enfoque utilice el uso para ir más allá de las moléculas, hacer LLM multimodales que pueden manejar otros tipos de datos basados en gráficos, como un sensor coordinado o transacciones de mercado financiero en la red eléctrica.
“Lamol refleja la viabilidad de usar modelos de lenguaje grandes como una interfaz de datos compleja más allá de la explicación del texto, y esperamos que interactúen con otros algoritmo de IA para resolver cualquier problema gráfico”, dice Chen Chen.
Esta investigación ha sido parcialmente financiada por MIBM Watson AI Lab, National Science Foundation y la Oficina de Investigación Naval.










