En la tarde del 14 de diciembre, un gran número de personas se reunieron en Bondi Beach en Australia para celebrar la primera noche de Hanukkah y, en cambio, se encontraron con violencia. Los sicarios abrieron fuego contra el grupo. 15 personas han sido asesinadas hasta la fecha.
Uno de los agresores fue derribado por el transeúnte Ahmed Al Ahmed, cuya valiente decisión de luchar contra el pistolero y agarrar su arma fue capturada en video y ampliamente compartida en las plataformas de redes sociales. Informado por una epidemia de violencia armada que ha convertido a muchos espectadores en héroes, queda claro ante la cámara que el hombre de la camisa blanca está potencialmente salvando docenas de vidas. El arma de cañón largo está a la vista mientras se la arrebata a un hombre vestido de negro, quien luego cae y se aleja.
Mujer de Los Ángeles descubre a un hombre escondido en el baúl de Waymo
Pero Grok de X, un chatbot de IA diseñado por xAI, la empresa de IA de Elon Musk, es como nunca visto.
A la mañana siguiente, cuando los usuarios se toparon con el inquietante vídeo de Ahmed y le pidieron al chatbot que les explicara, Grok descrito La escena es “un antiguo vídeo viral de alguien trepando a una palmera en un aparcamiento, presumiblemente para podarla”. Desde entonces, X usuarios han agregado una verificación de hechos a la respuesta del bot. En otra respuesta, Grok etiquetó erróneamente el video como imágenes de un ataque de Hamas el 7 de octubre, y en otra atribuyó el crédito al ciclón tropical Alfred, informó Gizmodo.
X aún tiene que explicar por qué ocurrió este problema, o por qué Groke hizo imposible un error similar sobre Bondi Beach.
Velocidad de la luz triturable
Pero el guardia sabe por qué y es muy sencillo. Los chatbots son malos para dar noticias de última hora. A raíz del asesinato del comentarista de extrema derecha Charlie Kirk, Grok alimentó teorías de conspiración sobre el tirador y los propios guardaespaldas de Kirk, y algunos usuarios les dijeron a otros que un video gráfico que mostraba claramente la muerte de Kirk era un meme. Otras fuentes de búsqueda basadas en inteligencia artificial, incluida Google AI Overview, también brindaron información falsa poco después de la muerte de Kirk.
“En lugar de negarse a responder, los modelos ahora pueden acceder a cualquier información disponible en línea en un momento dado, incluidos sitios web de baja participación, publicaciones sociales y granjas de contenido generadas por IA creadas por actores maliciosos. Como resultado, los chatbots repiten y verifican afirmaciones falsas durante eventos de alto riesgo y de rápido movimiento”.
Las plataformas de redes sociales también han rechazado la verificación de datos humanos en todos los ámbitos y, en cambio, los chatbots pueden priorizar la frecuencia sobre la precisión en las respuestas a las noticias en tiempo real.
Las empresas de inteligencia artificial saben que esta es una brecha evidente para sus bots, y es por eso que han presentado a las publicaciones de noticias acuerdos de licencia cada vez mayores para mejorar sus productos. A principios de este mes, Meta firmó Múltiples contratos comerciales de IA Con editores de noticias, incluidos CNN, Fox News y publicaciones internacionales. mundo, Sumándose a su asociación existente con Reuters. Google es Ejecutar un programa piloto Con editores de noticias participantes para ampliar las funciones impulsadas por IA, incluidos resúmenes de artículos en Google News.
Las alucinaciones y la precisión siguen siendo un problema importante para los modelos de lenguaje grande y los chatbots de IA en general, que a menudo proporcionan información falsa a los usuarios.











