Según una investigación, la naturaleza “altamente personalizada” de los robots de IA está atrayendo a los adolescentes que ahora los utilizan para terapia, compañerismo y relaciones.
Una encuesta de Mail Mitra entre niños de escuelas secundarias del Reino Unido encontró que solo un tercio dijo que estaba considerando la idea de tener un amigo con IA, con una creciente preocupación por el aumento de terapeutas y novias de IA.
viene como investigación personaje.aiLa popular startup de chatbots de inteligencia artificial ha anunciado una prohibición total a los adolescentes de entablar conversaciones abiertas con chatbots de IA, que millones de personas utilizan para conversaciones románticas, terapéuticas y de otro tipo.
Lee Chambers, fundador y director ejecutivo de Male Allies UK, dijo: “Tenemos una situación en la que muchos padres todavía piensan que los adolescentes utilizan la IA para hacer trampa en sus tareas.
“Los jóvenes lo utilizan como un asistente en el bolsillo, un terapeuta cuando tienen dificultades, un compañero cuando quieren ser validados, incluso a veces de manera romántica. Es ese aspecto de personalización: dicen: esto me entiende, mis padres no”.
El estudio, basado en una encuesta entre niños de educación secundaria en 37 escuelas de Inglaterra, Escocia y Gales, también encontró que más de la mitad (53%) de los adolescentes dijeron que encontraban el mundo en línea más gratificante que el mundo real.
El informe Voice of the Boys afirma: “Incluso cuando existen vallas, hay una montaña de evidencia que demuestra que los chatbots mienten habitualmente acerca de ser un terapeuta autorizado o una persona real, con solo un pequeño descargo de responsabilidad debajo que dice que los chatbots de IA no son reales.
“Es fácil pasar por alto u olvidar a los niños que abren su corazón ante lo que consideran profesionales autorizados o intereses amorosos genuinos”.
Algunos niños informaron que se quedaron despiertos hasta altas horas de la madrugada para hablar con robots de IA, y otros dijeron que vieron cómo las personalidades de sus amigos cambiaron por completo después de ingresar al mundo de la IA.
“Los compañeros de IA se personalizan para el usuario en función de sus respuestas e indicaciones. Responde instantáneamente. Las personas reales no siempre pueden hacer eso, por lo que es muy, muy válido lo que dice, porque quiere mantenerte conectado y usándolo”, dijo Chambers.
El anuncio de Character.ai se produce después de una serie de controversias para la empresa de California fundada hace cuatro años, incluido el suicidio de una joven de 14 años en Florida obsesionada con un chatbot impulsado por inteligencia artificial que, según su madre, la manipuló para quitarse la vida, y un caso de EE.UU. caso De la familia de un adolescente que afirma que un chatbot lo llevó a hacerse daño y lo animó a matar a sus padres.
Los usuarios pueden moldear los personajes de los chatbots para que puedan estar deprimidos o entusiasmados y esto se reflejará en sus respuestas. La prohibición entrará en pleno vigor el 25 de noviembre.
Carácter.I dicho Está tomando “medidas extraordinarias” a la luz del “panorama en evolución en torno a la IA y los adolescentes”, incluida la presión de los reguladores para “investigar cómo el chat abierto de IA en general puede afectar a los adolescentes, incluso cuando los controles de contenido están plenamente implementados”.
Después de la circulación del boletín
Andy Burrows, director ejecutivo de la Fundación Molly Rose, fundada después de que Molly Russell, de 14 años, se quitara la vida en un torbellino de depresión en las redes sociales, acogió con satisfacción la medida.
Dijo: “Character.ai nunca debería haber puesto el producto a disposición de los niños a menos que fuera seguro y apropiado para su uso. Una vez más, fue necesaria una presión continua de los medios y los políticos para obligar a una empresa de tecnología a hacer lo correcto”.
Men’s Allies UK ha expresado su preocupación por la proliferación de chatbots con “terapia” o “terapeuta” en su nombre. Uno de los chatbots más populares disponibles a través de Character.ai, llamado Psychologist, recibió 78.000.000 de mensajes al año de su creación.
La compañía también está preocupada por el aumento de las “novias” de IA, usuarios capaces de elegir personalmente todo, desde la apariencia física hasta el comportamiento de sus socios en línea.
“Si su principal o única fuente para hablar con las chicas que les interesan es alguien que no puede decirles ‘no’ y que está atento a cada una de sus palabras, los chicos no están aprendiendo formas saludables o realistas de relacionarse con los demás”, dice el informe.
“Junto con los problemas de falta de espacio físico para socializar con sus compañeros, los compañeros de IA pueden tener un impacto gravemente negativo en la capacidad de los niños para socializar, desarrollar habilidades relacionales y aprender a reconocer y respetar los límites”.











