- Quizás nunca sepamos si la IA es realmente consciente. Un filósofo que estudia la conciencia dice que la posición más honesta es el agnosticismo. No existe una forma confiable de saber si una máquina está consciente y es posible que eso no cambie pronto.
- Esa incertidumbre crea espacio para la exageración. Según el Dr. Tom McClelland, las empresas de tecnología pueden aprovechar la falta de evidencia clara para comercializar la IA como si alcanzara “el siguiente nivel de inteligencia de IA”, incluso cuando no hay evidencia de conciencia real.
- Las máquinas creyentes pueden correr riesgos reales. McClelland advierte que formar vínculos emocionales basados en la idea de que la IA es consciente puede ser profundamente dañino y califica el efecto de “existencialmente tóxico”.
¿Por qué es tan difícil precisar la conciencia de la IA?
Un filósofo de la Universidad de Cambridge dice que falta la evidencia fundamental necesaria para determinar si la inteligencia artificial puede volverse consciente y cuándo. Según el Dr. Tom McClelland, las herramientas necesarias para probar la conciencia de las máquinas simplemente no existen, y hay pocas razones para esperar que eso cambie pronto.
A medida que el concepto de conciencia artificial sale de la ciencia ficción y entra en un debate ético serio, McClelland sostiene que la posición más razonable es la incertidumbre. Describe el agnosticismo como la única posición defendible, porque no existe una manera confiable de saber si un sistema de IA es verdaderamente consciente y esa incertidumbre puede persistir indefinidamente.
Conciencia versus sensibilidad en la ética de la IA
Las discusiones sobre los derechos de la IA a menudo se centran en la concientización, pero McClelland dice que la concientización por sí sola no tiene peso moral. Lo que realmente importa es una forma particular de conciencia llamada sensibilidad, que implica la capacidad de sentir placer o dolor.
“La conciencia verá a la IA desarrollar la percepción y volverse consciente de sí misma, pero esto aún puede ser un estado neutral”, dijo McClelland del Departamento de Historia y Filosofía de la Ciencia de Cambridge.
“La sentencia implica una experiencia consciente que es buena o mala, que hace que un ser sea capaz de sufrir o disfrutar. Aquí es cuando entra en juego la moralidad”, dijo. “Incluso si creamos una IA consciente, es poco probable que sea el tipo de conciencia del que debamos preocuparnos”.
Ilustra la diferencia con un ejemplo práctico. Un automóvil autónomo que perciba su entorno sería un logro tecnológico notable, pero no plantearía preocupaciones éticas por sí solo. Si ese mismo sistema comienza a sentir un apego emocional al lugar al que se dirige, será una situación fundamentalmente diferente.
Grandes inversiones y grandes afirmaciones sobre la IA
Las empresas tecnológicas están invirtiendo enormes recursos en la búsqueda de inteligencia artificial general, sistemas que igualan las capacidades cognitivas humanas. Algunos investigadores y líderes de la industria afirman que la IA consciente podría llegar pronto, lo que llevaría a gobiernos e instituciones a explorar cómo se pueden regular dichos sistemas.
McClelland advierte que estas discusiones se están adelantando a la ciencia. Debido a que, en primer lugar, no entendemos qué causa la conciencia, no existe una forma obvia de detectarla en las máquinas.
“Si accidentalmente creamos una IA consciente o sensible, debemos tener cuidado de evitar daños. Pero tratar efectivamente a una tostadora como sensible cuando hay seres sensibles reales a los que dañamos en una escala épica también parece un gran error”.
Dos lados del debate sobre la conciencia de la IA
Según McClelland, el debate sobre la inteligencia artificial tiende a dividirse en dos bandos opuestos. Un equipo cree que si un sistema de IA puede reproducir la estructura funcional de la conciencia, a menudo descrita como su “software”, será consciente incluso si funciona con silicio en lugar de tejido biológico.
La opinión contraria sostiene que la conciencia depende de procesos biológicos específicos dentro de un cuerpo vivo. Desde este punto de vista, incluso una réplica digital perfecta de una estructura consciente simularía la conciencia sin experimentarla realmente.
En el estudio publicado en la revista Dr. mente y lenguajeMcClelland examina ambas posiciones y concluye que cada una se basa en suposiciones que van más allá de la evidencia disponible.
Por qué la evidencia es insuficiente
“No tenemos una explicación profunda de la conciencia. No hay evidencia de que la conciencia pueda surgir con una estructura computacional adecuada, o de que la conciencia sea fundamentalmente biológica”, dice McClelland.
“Y no hay señales de evidencia suficiente en el horizonte. El mejor de los casos es que estamos a una revolución intelectual de cualquier tipo de experimento de conciencia efectivo”.
McClelland señala que la gente confía en gran medida en la intuición cuando juzga la conciencia de los animales. Citó su propia experiencia como ejemplo.
“Creo que mi gato está consciente”, dijo McClelland. “No se basa tanto en la ciencia o la filosofía como en el sentido común; es algo obvio”.
Sin embargo, sostiene que el sentido común evolucionó en un mundo sin animales artificiales, lo que lo hace poco fiable cuando se aplica a las máquinas. Al mismo tiempo, los datos científicos concretos tampoco proporcionan la respuesta.
“Si el sentido común o la investigación rigurosa no pueden darnos una respuesta, la posición lógica es el agnosticismo. No lo sabemos y no podemos”.
Exageración, recursos y compensaciones éticas
McClelland se describe a sí mismo como un agnóstico “duro”. Aunque cree que la conciencia es un problema extraordinariamente difícil, no descarta la posibilidad de llegar a comprenderlo.
Es más crítico con cómo se habla de inteligencia artificial en el sector tecnológico. Sostiene que el concepto se utiliza a menudo como una herramienta de marketing más que como una afirmación científica.
“Existe el riesgo de que la industria de la IA aproveche la incapacidad de demostrar la conciencia para hacer afirmaciones extravagantes sobre su tecnología. Se convierte en parte del revuelo, para que las empresas puedan vender la idea del siguiente nivel de ingenio de la IA”.
Esta exageración, dijo, tiene consecuencias morales reales. Se pueden desviar recursos y atención de casos en los que el sufrimiento está mucho más justificado.
“Un creciente conjunto de pruebas sugiere que los camarones pueden ser capaces de sufrir, pero matamos alrededor de medio billón de camarones cada año. Probar la conciencia en los camarones es difícil, pero nada como probar la conciencia en la IA”, dijo.
Cuando los humanos creen que las máquinas están vivas
McClelland dice que el interés público en la concienciación sobre la IA se ha intensificado con el auge de los chatbots conversacionales. Ha recibido mensajes de personas que creen que su chatbot es sensible.
“La gente ha conseguido que sus chatbots me escriban cartas privadas y son conscientes de que me solicitan. El problema se complica aún más cuando la gente está convencida de que tienen máquinas conscientes que todos ignoramos”.
Advierte que crear vínculos emocionales basados en suposiciones falsas sobre la conciencia de las máquinas puede ser perjudicial.
“Si tienes una conexión emocional con algo basada en ser consciente y no lo es, tiene el potencial de ser existencialmente tóxico. Sin duda, se ve exacerbado por la retórica inflada de la industria tecnológica”.











