Home Smartwatch Contenido sexual de menores de edad e información sobre autolesiones objetivo del...

Contenido sexual de menores de edad e información sobre autolesiones objetivo del nuevo mensaje de código abierto de OpenAI

18

OpenAI anunció nuevas indicaciones de seguridad de código abierto para desarrolladores, destinadas a permitir la implementación generalizada de políticas para proteger a los adolescentes.

D Paquete de seguridad basado en avisos Incluye riesgos comunes para los adolescentes, recomendaciones de contenido para el desarrollo y orientación apropiada para la edad sobre temas como autolesiones, contenido sexual y juegos de roles románticos, tendencias peligrosas o desafíos virales e ideales corporales dañinos.

OpenAI dice que es una alternativa más sólida a las instrucciones de alto nivel ofrecidas anteriormente, formateadas como indicaciones que se conectan directamente a los sistemas de IA.

Ver también:

Por qué maximizar la fricción puede ser bueno para el uso de la tecnología

OpenAI añadió la nueva política para menores de 18 años a las especificaciones de su modelo en diciembre. Hace unos meses, la empresa reveló gpt-oss-protecciónUn modelo de razonamiento abierto diseñado para ayudar a los desarrolladores a implementar condiciones de seguridad y clasificar contenido seguro e inseguro. A diferencia de los mecanismos tradicionales de clasificación de seguridad, gpt-oss-safeguard se puede incorporar directamente a las políticas de seguridad de la plataforma e infiere la intención de la política a medida que aísla los resultados apropiados.

Pero “incluso los equipos experimentados a menudo luchan por traducir objetivos de seguridad de alto nivel en reglas operativas concretas, especialmente porque requiere tanto experiencia subjetiva como un conocimiento profundo de la IA”, dijo OpenAI en su último comunicado de prensa. “Esto puede provocar lagunas en la protección, aplicación inconsistente o filtrado demasiado amplio. Las políticas claras y bien definidas son una base fundamental para sistemas de seguridad eficaces”.

El paquete de desarrollador adicional fue diseñado en colaboración con la organización sin fines de lucro Common Sense Media. todos.

Los expertos han advertido a los padres sobre la sobreexposición a los chatbots en adolescentes vulnerables e incluso en niños pequeños, mientras las empresas de inteligencia artificial intentan controlar los efectos de sus modelos en la salud mental de los usuarios. El año pasado, los padres del adolescente de OpenAI Adam Raine presentaron la primera demanda por muerte por negligencia de la industria, y la familia Raine afirmó que una combinación de adulación de ChatGPT y políticas de seguridad laxas fueron responsables del suicidio de su hijo. La compañía ha negado las acusaciones de irregularidades y, en respuesta, ha reforzado sus funciones de salud mental y seguridad para adolescentes, incluida la verificación de edad. Sin embargo, los desarrolladores externos que obtienen licencias de los modelos de OpenAI han luchado por mantener el mismo nivel de precauciones de seguridad que con los juguetes infantiles impulsados ​​por IA.

La demanda contra OpenAI sigue a una serie de demandas contra la controvertida plataforma personaje.ai Y OpenAI preparó el escenario para una reciente demanda por muerte por negligencia presentada contra su competidor Google y su asistente Gemini AI.

Las empresas de toda la industria, la tecnología y las redes sociales se enfrentan a una avalancha de desafíos legales relacionados con los efectos a largo plazo de sus productos en los usuarios. El mes pasado, el director ejecutivo de Instagram, Adam Mosseri, y el jefe de Meta, Mark Zuckerberg, testificaron ante un jurado en una demanda histórica para procesar a las plataformas de redes sociales por sus políticas de diseño supuestamente adictivas. Se ha emitido un juicio aún por llegar.

OpenAI dice que su nuevo paquete de indicaciones de seguridad no es una “definición o garantía integral o definitiva de la seguridad de los adolescentes”. Robbie Torney, jefe de IA y evaluación digital de Common Sense Media, dijo que las nuevas políticas podrían “crear un piso de seguridad significativo en todo el ecosistema”, llenando una brecha de seguridad de la IA que ha crecido debido a la falta de políticas efectivas para los desarrolladores.

Los desarrolladores pueden descargar el modelo de seguridad de OpenAI cara de abrazo Y accede a su nuevo paquete de avisos GitHub.


Divulgación: Jeff Davis, la empresa matriz de Mashable, presentó una demanda contra OpenAI en abril, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA.

Enlace fuente