Home Noticias Si se odia los algoritmos de hambre son la causa del daño...

Si se odia los algoritmos de hambre son la causa del daño del mundo real, entonces las empresas de tecnología deben pagar dinero

2

Al presentar silenciosamente en diseños o en silencio en el panorama digital rico en rápidos, las compañías de redes sociales más grandes del mundo han permitido que sus plataformas dividan, inhumanas y crecientes fábricas de violencia real.

Lo que comenzó como un equipo de conexión se ha convertido en un motor de ira. Esto no es accidente. Es un negocio

El algoritmo de Baghdan está en el centro de esta transformación: un proceso aparentemente neutral que miles de millones de personas ven, comparten, comparten y creen lo que ven miles de millones de personas.

Los algoritmos no son neutrales. Haga clic en nosotros en la plataforma, comentando y desplazándose: se hacen ingenieros para un solo propósito. En la competencia para llamar la atención, un desencadenante sensible excede al otro: la ira.

Extendido más rápido que la verdad de la ira. Las publicaciones que hacen que el inflamado inflamatorio cree más ocupación que ellos. El algoritmo no le importa si una publicación está dividida o dañina, solo que no puedes alejarte. El resultado es una economía de atención donde el contenido más rentable es a menudo más venenoso.

Esta no es una preocupación teórica. Vemos las consecuencias todos los días, como el acoso en línea y los discursos desagradables a los metastos en ataques fuera de línea.

Gobernador Un paso ahora espera la firma de Gavin Newsm, Proyecto de ley del Senado 771Una segura y más civil representa un paso importante hacia el patio digital. Bill le dará a California las corporaciones de redes sociales más grandes para dar cuenta de la responsabilidad cuando sus algoritmos contribuyan a las violaciones de los derechos civiles según la ley de California.

Las agencias de redes sociales pueden protestar que nunca viajan a los usuarios para radicalizar o beneficiarse de la polarización. Puede ser cierto. Sin embargo, la intención no es una medida de responsabilidad. Y la cantidad de complejidad es negarse a prevenir activamente estos resultados.

Considere algunos ejemplos: la investigación interna en Facebook lo ha confirmado Promueve algoritmos que dividen contenido Porque al hacer clic en el impulso de la ira y la negligencia de las minorías rohingya en la negligencia de Myanmar contra las minorías Ayudó a alentar la promoción de la eliminación étnicaLa X, anteriormente conocida como Twitter, reconoció El discurso del odio ha crecido Tras el cambio en la restricción de su contenido. Los Ángeles y Nueva York, Los hashtags antisemíticos están en tendencia en línea Ataques anteriores contra organizaciones judías.

Los puntos ya no son difíciles de conectar. Daño fuera de línea al combustible desagradable en línea.

Cuando se firma, SB 771 no colocará el código de habla. No castigará la libre expresión. Confirmará que las plataformas enfrentan las consecuencias cuando sus prácticas comerciales ya están acosando, amenazando o discriminación ilegalmente según la ley estatal.

Esta es una intervención estrecha pero necesaria. Las leyes de responsabilidad de los productos, como las airbags defectuosas y las compañías farmacéuticas, son responsables de los medicamentos responsables de los medicamentos inseguros, así como nuestras compañías de redes sociales son responsables de la pérdida espontánea causada por los defectos creados entre sus principales modelos comerciales.

California ha llevado a la nación a establecer nuestras vidas desde la protección del producto del consumidor hasta la protección del medio ambiente. Este proyecto de ley seguirá la tradición.

La apuesta es alta. En el condado de Los Ángeles, Anti -Crime crece En el 91% del año pasado, cuando LGBTTUV+ y las comunidades de inmigrantes se dirigen a crímenes de odio en alturas récord. Los maestros dicen que los colas y amenazas se extienden a través del aula en un meme de tendencia. Y los padres están encontrando extremistas por contenidos extremistas de sus hijos que ponen algoritmos presionados en sus alimentos.

No se trata de política. La protección contra el odio debe superar el ideal. Esto es si los californianos se refugian cuando el odio está dañado. Maestros, padres, líderes de fe: cada fondo californianos tienen parte de esta pelea.

Imagine iniciar sesión en espacios digitales mañana donde el odio se pasa por diseño en lugar de alcance, donde los algoritmos se combinan con la dignidad humana en lugar de la ira inhumana.

California, incluido SB 771, puede dar ese ejemplo. Las noticias pueden enviar un mensaje claro: la protección y los derechos civiles de California tienen prioridad que el resultado final de Silicon Valley.

Jim Burk es CEO de Simon Wiscental Center.

Publicado originalmente:

Enlace fuente