Home Técnica AI DIEPFECS empuja a los clientes a comprar productos sospechosos

AI DIEPFECS empuja a los clientes a comprar productos sospechosos

142

Sostener una gran zanahoria, un hombre brani y sin camisa promueve un suplemento afirma que puede expandir los genitales masculinos, uno de los innumerables videos expuestos a AI sobre el tratamiento sexual desintegrado del boleto.

La aparición de la IA del generador ha facilitado la producción de estos videos nacionales con una supervisión humana mínima y financieramente rentable, a menudo presenta la aprobación de la celebridad falsa de productos falsos y posibles dañinos.

En algunos videos de boletos, las zanahorias se usan como audiencia en los genitales masculinos, obviamente para evitar el lenguaje sexual claro de la vigilancia.

“Notará que su zanahoria ha crecido”, dice la persona musculosa con voz robótica en un video que los usuarios opera un enlace a una compra en línea.

“Este producto cambiará su vida”, agregó el tipo, sin pruebas de que los elementos aumentan la testosterona y envían el nivel de fuerza “por las nubes”. “

El video parece estar expuesto a AI, un servicio de detección de Dipfek recientemente lanzado por la oficina del Área de Bay-Sadar es similar a la IA, que compartió sus resultados con AFP.

El director ejecutivo y cofundador de la IA, Johaib Ahmed, dijo a la AFP: “Como se ve en este ejemplo, el material engañoso expuesto a AI se está utilizando para el mercado de suplementos con reclamos exagerados o verificados, potencialmente arriesgando la salud de los clientes”.

“Estamos viendo las armas de contenido expuestas a AI-AI para difundir información falsa”.

‘Camino barato’

Esta tendencia se refiere a cómo el progreso rápido en la inteligencia artificial llamada AI Distopia, un universo fraudulento en línea diseñado para hacer usuarios en la compra de productos sospechosos, se llama ai distopía.

Estos incluyen todas las cosas de verificar, y en algunos casos potencialmente dañinas, suplementar la pérdida de peso de los productos y remedios sexuales.

El investigador de información incorrecto, Abby Richards, dijo a la AFP: “La IA es una herramienta útil para que Griffters cree OP OP”.

“Es una forma barata de producir anuncios”, agregó.

Alexios Mantzerlis, director de la Iniciativa de Seguridad, Trust y Protección del Coronel Tech, notó un entusiasmo del avatar “AI Doctor” y la pista de audio de boletos que promueve remedios sexuales cuestionables.

Algunos de estos videos, incluidos muchos millones de vistas, se refieren a la testosterona de pedal hechas de ingredientes como limón, jengibre y ajo.

Más preocupante, el equipo de IA rápidamente desarrollado ha permitido a la actriz Amanda Caifrid y al actor Robert de Nero disfrazar a las celebridades.

“¿Tu esposo no puede conseguirlo?” Antony Fausi, ex director del Instituto Nacional de Alergia y Enfermedades Infecciosas, parece haber pedido en un video de Tikatok que promueva un complemento de próstata.

Sin embargo, el clip es una profundidad que usa la duplicidad de la pesquería.

‘Dañino’

Muchos videos manipulados están hechos de la voz existente, modificada y firmada con labios con la voz expuesta a la AI coinciden con lo que dice.

“El video del camuflaje es especialmente dañino porque hacen que nuestra capacidad de detectar cuentas auténticas sea más degradada”, dijo Mantzerlis.

El año pasado, Mantzerlis descubrió cientos de anuncios en YouTube que integraron los dipfakes de celebridades, incluidos Arnold Schwarzenegger, Sylvester Stalone y Mike Tyson, promovieron suplementos de marca para curar la disfunción eréctil.

La velocidad más rápida de producir videos de IA de forma corta significa que las plataformas tecnológicas eliminan el material cuestionable, pero las versiones más cercanas se demuestran rápidamente: la cumbre se convierte en un juego de hack-mol.

Los investigadores dicen que crea un desafío único para la vigilancia de materiales expuestos a AI, que requieren soluciones elegantes y equipos de detección más sofisticados.

Los controladores de hechos de la AFP promueven repetidamente anuncios de estafa en Facebook promocionando el tratamiento, incluida la curación de trastornos eréctiles, que utiliza el neurocirujano y el apoyo de malla del ex miembro del gabinete estadounidense Ben Karson.

Sin embargo, muchos usuarios todavía parecen ser válidos al representar la aplicación de Dipfke.

“El esquema de marketing de afiliación de estafa y cuestionando los platos sexuales son antes y hasta que Internet sea antes”, dijo Mantzerlis.

“Como todo lo malo en línea, la IA del generador ha hecho el vector de este abuso barato y rápido para implementar una escala”.

(Excepto por el título, esta historia no es editada por el personal de NDTV y se publica a partir de un feed sindicado)))


Source link