El aprendizaje automático es una herramienta poderosa en biología computacional que permite el análisis de una amplia gama de datos biomédicos, como secuencias genómicas e imágenes biológicas. Pero cuando los investigadores utilizan el aprendizaje automático en biología computacional, comprender el comportamiento del modelo es fundamental para descubrir los mecanismos biológicos subyacentes en la salud y la enfermedad.

En un artículo reciente Los caminos de la naturalezaInvestigadores de la Facultad de Ciencias de la Computación de la Universidad Carnegie Mellon han propuesto pautas que describen los peligros y oportunidades del uso de métodos interpretables de aprendizaje automático para abordar problemas en biología computacional. El artículo de Perspectives, “Aplicación del aprendizaje automático interpretable en biología computacional: trampas, recomendaciones y oportunidades para nuevos desarrollos”, aparece en el número especial de agosto de la revista sobre IA.

“El aprendizaje automático interpretativo ha generado un gran entusiasmo a medida que las herramientas de aprendizaje automático y de inteligencia artificial se aplican cada vez más a problemas críticos”, dijo Amit Talwalkar, profesor asociado en el Departamento de Aprendizaje Automático (MLD) de CMU. “A medida que estos modelos crecen en complejidad, resulta muy prometedor no sólo desarrollar modelos altamente predictivos, sino también crear herramientas que ayuden a los usuarios finales a comprender cómo y por qué estos modelos hacen ciertas predicciones. Sin embargo, es importante reconocer que el aprendizaje automático interpretable todavía tiene que proporcionar una solución llave en mano a este problema interpretativo”.

Este artículo es una colaboración entre Valerie Chen, estudiante de doctorado en MLD, y Mayo (Wendy) Yang en el Departamento de Biología Computacional de Ray y Stephanie Lane. Las críticas al trabajo anterior de China que interpreta la falta de fundamento de la comunidad de aprendizaje automático en casos de uso posteriores inspiraron el artículo, y la idea se desarrolló en conversaciones con Yang y Jian Ma, los profesores de biología computacional Ray y Stephanie Lin.

“Nuestra colaboración comenzó con una inmersión profunda en artículos de biología computacional para estudiar el uso de métodos interpretables de aprendizaje automático”, dijo Yang. “Descubrimos que muchas aplicaciones utilizan estos métodos de una manera un tanto ad hoc. Nuestro objetivo con este artículo es proporcionar pautas para un uso más sólido y consistente de métodos interpretables de aprendizaje automático en biología computacional”.

Un inconveniente importante que identifican los artículos es la dependencia de un único método interpretativo de aprendizaje automático. En cambio, los investigadores recomiendan utilizar múltiples métodos interpretativos de aprendizaje automático con diversos conjuntos de hiperparámetros y comparar sus resultados para obtener una comprensión más completa del comportamiento del modelo y sus interpretaciones subyacentes.

“Si bien algunos modelos de aprendizaje automático parecen funcionar sorprendentemente bien, a menudo no entendemos completamente por qué”, afirmó Ma. “En ámbitos científicos como la biomedicina, comprender por qué funcionan los modelos es fundamental para descubrir los mecanismos biológicos subyacentes”.

El artículo también advierte contra la selección selectiva de resultados al evaluar métodos interpretables de aprendizaje automático, ya que esto puede conducir a interpretaciones incompletas o sesgadas de los resultados científicos.

Chen enfatizó que las pautas podrían tener implicaciones más amplias para una audiencia más amplia de investigadores interesados ​​en aplicar métodos interpretables de aprendizaje automático a su trabajo.

“Esperamos que los investigadores de aprendizaje automático que desarrollan nuevos métodos y herramientas interpretables de aprendizaje automático, especialmente aquellos que trabajan en la descripción de grandes modelos de lenguaje, tengan cuidado”, dijo Chen. Interpretable considerará los aspectos centrados en el ser humano del aprendizaje automático. “Esto incluye comprender quién es su usuario objetivo y cómo se utilizará y probará el método”.

Si bien comprender el comportamiento del modelo es fundamental para el descubrimiento científico y el problema fundamentalmente no resuelto del aprendizaje automático, los autores esperan que estos desafíos puedan explorarse más a fondo para facilitar un uso más amplio de la IA con fines científicos.

Source link