Home Smartwatch ¿Cómo puede la ciencia beneficiarse de la IA? Riesgos?

¿Cómo puede la ciencia beneficiarse de la IA? Riesgos?

2

Los investigadores de química, biología y medicina se están acercando rápidamente al modelo de IA para desarrollar nuevos supuestos. Sin embargo, a menudo no está claro sobre qué base los algoritmos llegan a sus consecuencias y en qué medida se pueden hacer públicos. Una publicación de la Universidad de Bonn ahora ha advertido malentendidos al tratar con la inteligencia artificial. Al mismo tiempo, destaca las condiciones bajo las cuales los investigadores pueden confiar en la mayoría de los modelos. Este estudio ha aparecido en la revista Cell informa ciencia física.

Los algoritmos de aprendizaje automático inclusivo son increíblemente poderosos. Sin embargo, tienen una desventaja: cómo los modelos de aprendizaje automático alcanzan sus predicciones a menudo no aparecen afuera.

Supongamos que come inteligencia artificial con fotos de varios miles de automóviles. Si ahora lo ofrece con un nuevo icono, generalmente puede identificar una identidad confiable si la imagen también muestra el automóvil o no. Pero, ¿por qué es eso? ¿Ha sabido realmente que un automóvil tiene cuatro ruedas, parabrisas y una forma? ¿O se basa en estándares que en realidad son irrelevantes, como la antena en el techo? Si ese fuera el caso, también podría clasificar la radio como un automóvil.

Los modelos AI son cajas negras

El profesor Dr. Georgian fue destacado: “El modelo de IA es cajas negras”. “Como resultado, nadie debe cerrar los ojos y confiar en sus consecuencias y no debe sacar conclusiones de ellas”. Instituto Lamar para el aprendizaje automático e interés artificial, dirige el Departamento del Departamento del Departamento de Ciencias de la Vida en el Departamento de Ciencias de la Vida. También está a cargo del Programa de Información de Ciencias de la Vida en el Centro Internacional de Tecnología de la Información de Bonn-Cachin (B-ET) en la Universidad de Bonn. En la publicación actual, investigó la pregunta de cuándo se podría confiar en el algoritmo. Y por el contrario: cuando no.

En este contexto, el concepto de “explicación” juega un papel importante. Hablando metafóricamente, esto se refiere a los esfuerzos dentro de la investigación de IA para perforar en la caja negra. El algoritmo debe mostrar el estándar que utiliza como base: cuatro ruedas o antenas. “Actualmente, abrir una caja negra en la investigación de IA es un tema central”, dice Bazorah. Algunos modelos de IA están especialmente diseñados para hacer que los resultados de otros sean más comprensibles.

Sin embargo, la explicación es solo un aspecto: la pregunta es tan importante como el modelo seleccionado por los estándares de toma de decisiones. Si el algoritmo indica que ha tomado su decisión basada en la antena, un hombre sabe inmediatamente que esta característica es poco adecuada para identificar automóviles. Sin embargo, los modelos adaptativos se usan comúnmente para identificar la conexión en grandes conjuntos de datos, que los humanos ni siquiera notan. Entonces somos como extranjeros que no saben lo que hace el automóvil: el extraño no podrá decir si la antena es un buen estándar.

Los modelos de lenguaje químico recomiendan nuevos compuestos

“Hay otra pregunta que siempre tenemos que hacernos a nosotros mismos al usar el procedimiento de IA en ciencia”, enfatizó Bazora, que también es miembro del Área de Investigación de Dispensario Trans (TRE) “Modelado”: “¿Cuántas consecuencias son los resultados?” Los modelos de lenguaje químico son actualmente un tema candente en química e investigación farmacéutica. Por ejemplo, es posible alimentarlos con muchas moléculas, que tienen una actividad biológica especial. Según estos datos de entrada, el modelo aprende nuevamente e idealmente sugiere una nueva molécula, que también tiene una actividad pero también una nueva estructura. También se conoce como modelado generativo. Sin embargo, el modelo generalmente no puede explicar por qué se trata de esta solución. Entonces a menudo es importante aplicar los métodos de IA explicativos.

Sin embargo, Bazorah ha advertido en contra de la interpretación más de estas explicaciones, es decir, según la expectativa de las cuales las características consideran que la IA es importante, de hecho, causa la actividad deseada. “El modelo actual de IA no entiende básicamente sobre la química”, dice. “Son de naturaleza puramente estadística y relacionada y se centran en cualquier distinción, independientemente de si estas características pueden ser química o biológica”. Sin embargo, también pueden corregirse en su diagnóstico, por lo que tal vez la molécula recomendada tiene las habilidades deseadas. Sin embargo, las razones pueden ser bastante diferentes de lo que esperaremos sobre la base del conocimiento químico o intuitivo. Para evaluar la causa potencial de predicciones de conducción y procesos naturales similares, los experimentos generalmente necesitan: los investigadores deben sintetizar y examinar moléculas, así como otras moléculas, así como otras moléculas que AI considera importantes.

Los controles de actualización son importantes

Dichas pruebas son exigentes y caras. Bazora ha advertido contra los resultados más comúnmente explicados de la IA en busca de una relación interpretada científicamente. En su opinión, una verificación orgullosa basada en una racionalidad científica de voz es de suma importancia: ¿puede la característica propuesta por la IA una característica específica puede ser realmente responsable de la propiedad química o biológica deseada? ¿Es capaz de seguir los consejos de AI? ¿O es un patrón potencial, una comunicación identificada al azar, como la antena para automóviles, que no está relacionada con el trabajo real?

Los científicos enfatizan que el uso de algoritmos adaptativos tiene la capacidad de avanzar en la investigación en muchas áreas de la ciencia. Sin embargo, uno debe ser consciente de los poderes de estos métodos y especialmente sus debilidades.

Source link