En abril, meta Contradiciéndome en silencio Después de eliminar una publicación de Instagram que honraba las relaciones lésbicas mayores en Brasil, la publicación eliminada no era de naturaleza sexual y no contenía material dañino para menores. La publicación en cuestión documentó una instantánea de un momento de la historia en el que las lesbianas se vieron obligadas a ocultar sus relaciones como “compañeras de cuarto” o “compañeras de mejillas” y su amor fue borrado del registro público. Sin embargo, el metacontenido ha sido eliminado.
Meta citó sus reglas sobre incitación al odio. Junta de Supervisión Este último admitió lo que debería haber sido obvio desde el principio: el caso brasileño es un ejemplo de aplicación excesiva de la ley contra una comunidad marginada, impulsada por sistemas automatizados que no pueden leer el contexto, el lenguaje recuperado o incluso la publicación completa. El contenido se restableció sólo después de la intervención externa y el apoyo de la comunidad LGBTQ+.
Mashable 101 Favoritos de los fans: Vota por tu creador favorito ¡Hoy!
El caso ahora se está tratando como un error limitado de moderación de contenido, pero los formuladores de políticas deben reconocer que ofrece una cruda advertencia de lo que sucede cuando los legisladores presionan a las plataformas para que controlen el contenido en lugar de arreglar el diseño. En todo el país, los estados están luchando por “proteger a los niños en línea” restringiendo el acceso a las redes sociales o presionando a las empresas para que eliminen contenido vagamente definido como “dañino”. Pero lo ocurrido en Brasil muestra el costo humano de ese enfoque.
Cuando se anima a las plataformas a eliminar el discurso rápidamente y a escala, no se convierten en mejores jueces de los matices. Las redes sociales se convierten en un instrumento contundente y las primeras personas que salen perjudicadas son aquellas que necesitan un contexto humano y una empatía radical para comprender las historias.
Si los legisladores realmente quieren proteger a los niños, deberían dejar de pedir a las plataformas que decidan qué historias son aceptables y comenzar a regular las opciones de diseño clave que causan daño en primer lugar, como el desplazamiento interminable, las recomendaciones basadas en la participación y los feeds impulsados por la vigilancia.
Fui sugar daddy de Grindr por un día. Luego intentó devolver el dinero.
He aquí por qué esta distinción es importante, especialmente para los niños LGBTQ+ y otras comunidades marginadas, como los niños neurodivergentes. Los jóvenes LGBTQ+ dependen de los espacios en línea para encontrar una comunidad mucho más que sus paresLa información y el apoyo a menudo se deben a que estas cosas no están disponibles o son inseguras en el hogar o la escuela. Pero son significativos Más posibilidades Terminar en interacciones en línea inseguras: acoso, acoso, doxxing o ser empujado a lugares de alto riesgo que no buscaron.
Después de Australia un Las redes sociales están prohibidas a menores de 16 años. La ley fue promulgada, señalaron los defensores de los derechos de las personas con discapacidad Los jóvenes autistas quedaron aislados de algunas de las únicas redes de apoyo y de pares disponibles para ellos.
Velocidad de la luz triturable
Los sistemas de recomendación no comprenden las vulnerabilidades, pero sí comprenden el compromiso. Cuando un niño queer busca una comunidad, las plataformas a menudo responden con un alcance agresivo que los mantiene haciendo clic. Por lo general, esto significa contenido cada vez más sexualizado, adultos desconocidos, discursos extremistas o cuentas depredadoras que saben cómo explotar adecuadamente la alienación.
El pergamino infinito dificulta el aislamiento de los adolescentes, según Centro de información de privacidad electrónicaMás aún para aquellos en comunidades vulnerables. Las sugerencias algorítmicas de “amigos” o “cuentas” rompen los límites entre adolescentes y adultos. Los valores predeterminados débiles dificultan el bloqueo, el silencio o la desaparición.
Los jóvenes, no sólo los jóvenes LGBTQ+, corren riesgos en línea porque las plataformas están diseñadas para atraer la atención, no para proteger a los usuarios. Los padres tienen razón en preocuparse y abogar por el cambio. Pero un encuadre basado en el contenido pasa por alto el problema real.
Los mayores riesgos para los niños en línea no provienen de una sola publicación mala que se escapa de la moderación, sino de sistemas automatizados que envían a los niños contenido que no solicitaron, los conectan con personas que no conocen y los mantienen desplazándose mucho tiempo después de que aparecen las señales de advertencia.
Los formuladores de políticas tanto a nivel estatal como federal deben diseñar regulaciones que aborden directamente esos riesgos. Los códigos de diseño apropiados para la edad no le dicen a las plataformas qué discurso permitir, pero pueden decirles cómo comportarse. Los códigos de diseño requieren valores predeterminados seguros, como límites en la elaboración de perfiles de comportamiento, herramientas de bloqueo sólidas, baja amplificación de recomendaciones no solicitadas y barreras que minimicen la viralidad y el uso compulsivo.
El público debería abogar por el perfeccionamiento de los productos en lugar de la violación de los derechos de la Primera y la Cuarta Enmienda. Los códigos de diseño reducen la posibilidad de poner en peligro algorítmicamente a un niño curioso o solitario, como yo, que busca una comunidad y es empujado al peligro por sistemas a los que no les importa quién soy.
Los códigos de diseño apropiados para la edad ofrecen una salida a este lío. Al regular cómo se construyen las plataformas en lugar de lo que la gente puede decir, las leyes sobre códigos de diseño reducen el daño sin convertir a las empresas en censores culturales. No necesitan una plataforma para explicar insultos regurgitados, historias extrañas o retórica política. En su lugar, las empresas deben detener la adicción y el riesgo a la ingeniería.
No necesitamos más prohibiciones de contenido o plataformas. Necesitamos un sistema menos dañino. Si realmente queremos proteger a los niños en línea, especialmente aquellos que ya corren mayor riesgo, este caso nos recuerda exactamente por dónde empezar.
Este artículo refleja la opinión del autor.
Lennon Torres es el director del movimiento Iniciativa térmica y sus socios fundadores El estudio de atención.










