Home Apple Prohibir a los adolescentes el uso de chatbots con IA podría significar...

Prohibir a los adolescentes el uso de chatbots con IA podría significar problemas para Siri

85

Un proyecto de ley bipartidista podría prohibir a los partidos el uso de chatbots con inteligencia artificial, en respuesta a las preocupaciones de los padres sobre contenido inapropiado que va desde conversaciones sexuales hasta ayuda con la planificación del suicidio.

Si la legislación GUARD propuesta se convierte en ley, podría afectar a Apple de tres maneras diferentes, incluidos los planes de la compañía para el nuevo Siri…

Prohibir a los menores el uso de chatbots con IA

La gente está cada vez más preocupada por desarrollar relaciones poco saludables con los chatbots de IA. Si bien las empresas de inteligencia artificial dicen que toman medidas para protegerse contra la dependencia emocional de los chatbots, hay quienes argumentan que en realidad intentan nutrirla deliberadamente para que sus aplicaciones sean adictivas.

Los padres han sido particularmente expresivos al presentar quejas sobre las interacciones de los adolescentes con los chatbots, y algunos hablaron directamente ante el Congreso el mes pasado, p. Noticias NBC Informes de tiempo.

“La verdad es que las empresas de inteligencia artificial y sus inversores se han dado cuenta a lo largo de los años de que mantener la dependencia emocional de nuestros hijos significa dominar el mercado”, dice Megan García. Una madre de Florida que el año pasado La plataforma de chatbot Character.AI ha presentado una demanda, alegando que uno de sus compañeros de IA agredió sexualmente a su hijo adolescente y lo incitó a quitarse la vida.

El mismo sitio informa ahora sobre intentos de introducir Legislación bipartidista Prohibir a los menores de 18 años el uso de chatbots con IA.

Dos senadores dijeron que anunciarán el martes una legislación bipartidista para tomar medidas enérgicas contra las empresas de tecnología que ponen a disposición de menores compañeros de chatbot de inteligencia artificial (…).

“Más del setenta por ciento de los niños estadounidenses utilizan actualmente estos productos de IA”, continuó. “Los chatbots están utilizando una empatía falsa para vincularse con los niños y fomentando el suicidio. Nosotros en el Congreso tenemos la responsabilidad moral de evitar mayores daños causados ​​por esta nueva tecnología”.

Tres posibles impactos en Apple

Si la Ley GUARD se convierte en ley, podría afectar a Apple de tres maneras.

Primero, obligaría a Apple a verificar la edad antes de permitir que las solicitudes de Siri regresen a ChatGPT. Actualmente, si le haces a Siri una pregunta que no puede responder, puede pasar automáticamente la consulta a ChatGPT o preguntarte si quieres hacerlo, según tu configuración.

En segundo lugar, una vez que se lance el nuevo Siri, parece probable que califique como un chatbot de IA. Esto requeriría nuevamente que Apple establezca un control de edad para el acceso al asistente inteligente y, dado que estaría disponible a nivel del sistema, esta verificación debería realizarse durante la configuración del iPhone.

En tercer lugar, Apple y Google pueden aumentar la presión para la verificación de la edad en sus respectivas tiendas de aplicaciones. Empresas como Meta han dicho que tiene más sentido que las tiendas de aplicaciones tengan controles de edad únicos para determinar quién puede descargar aplicaciones sólo para adultos, en lugar de verificar cada aplicación individualmente.

Apple se ha resistido a esto hasta ahora, pero como comentamos anteriormente, tiene argumentos convincentes para un mejor enfoque.

Algunos han argumentado que la verificación de la edad es un riesgo para la privacidad de los niños. Sólo Apple y Google harían que el riesgo fuera bajo. Y sí, si me preguntas en quién confío más para proteger información personal tan sensible (Apple o Meta), entonces no hay competencia.

Accesorios destacados

Foto por Surya Feisa en desempaquetar

Enlace fuente