Home Técnica Taylor Swift no compre criptomonedas de Deepfake. Cómo detectar una estafa de...

Taylor Swift no compre criptomonedas de Deepfake. Cómo detectar una estafa de inteligencia artificial de celebridades

4

La IA lo hace más fácil que nunca Crear contenido Y los estafadores se están aprovechando de ello. Un informe del jueves de la firma de seguridad McAfee encontró que muchos estadounidenses (72%) han visto el respaldo de una celebridad o una persona influyente falsa. Entre las celebridades cuyos nombres, imágenes y retratos se explotan en estafas en línea, Taylor Swift es la más utilizada.

Después de Swift, las otras celebridades cuyos retratos se utilizan con mayor frecuencia en estafas en línea son Scarlett Johansson, Jenna Ortega y Sydney Sweeney. La mayoría de los 10 primeros son músicos o íconos de la cultura pop, incluidos Sabrina Carpenter, Kim Kardashian y Zendaya. La única política en la lista es la representante estadounidense Alexandria Ocasio-Cortez. Cabe destacar que sólo dos hombres: Tom Cruise y LeBron James.


No se pierda nuestro contenido tecnológico imparcial y reseñas basadas en laboratorio. Añadir CNET Como fuente preferida de Google.


El estudio se centró en estafas en línea basadas en productos dirigidas al consumidor, como una criptomoneda falsa que afirma estar aprobada por la AOC. No mide el nivel de todos los deepfakes creados, razón por la cual otras figuras notables, como el presidente Donald Trump, no se encuentran entre los 10 primeros. Este tipo de estafadores de Internet dependen de que las personas interactúen con su contenido, ya sea haciendo clic en enlaces falsos, solicitando obsequios fraudulentos o comprando productos falsos. Entonces, lamentablemente, tiene sentido que dependan de grandes nombres como Swift para llamar nuestra atención. Por ejemplo, cuando Swift anunció su compromiso con Travis Kelce, se crearon estafadores. Publicidad de mercancías falsificadas. Basado en la propuesta de Kells. Las celebridades y las personas influyentes han sido explotadas de esta manera durante mucho tiempo, pero la IA les da un impulso desafortunado a los malos actores.

Arte de la insignia CNET AI Atlas; Haga clic para ver más

Las herramientas de inteligencia artificial generativa, como los generadores de imágenes, videos y audio, ofrecen una nueva vía para los malos actores. Pueden clonar la imagen de una celebridad para crear un respaldo, un regalo o un producto falso. Todo lo que los estafadores deben hacer es crear una publicación en las redes sociales que sea lo suficientemente creíble. Y funciona, McAfee informa que el 39% de las personas hicieron clic en uno de estos respaldos falsos y el 10% puso en riesgo su información personal y perdió un promedio de cientos de dólares ($525).

Las empresas de inteligencia artificial que construyen estos modelos de inteligencia artificial cuentan con sistemas para evitar que los estafadores o cualquier otra persona cree contenido de inteligencia artificial de celebridades sin su consentimiento. Pero ya hemos visto muchas veces cómo estos sistemas no son perfectos y se pueden solucionar. En las primeras semanas después del lanzamiento de Sora, el patrimonio del líder de derechos civiles Martin Luther King Jr. tuvo que ponerse en contacto con OpenAI porque estaba preocupado por la avalancha de videos de IA inapropiados y racistas de King en la plataforma. Aunque OpenAI ha declarado que planea hacerlo Trabaja con actores y celebridades en esto.No es algo que pueda resolverse mediante simples ajustes tecnológicos o políticas.

Cómo detectar una estafa de celebridades mediante IA

El contenido generado por IA es difícil de detectar, pero hay algunas cosas a las que puedes prestar atención. A continuación se muestran algunas.

  • Inspeccione el video o la foto de cerca. ¿Hay desapariciones y reapariciones? ¿Obedece las leyes de la física? ¿Las personas tienen una extraña apariencia brillante, parecida al plástico? Éstas son las características distintivas de la IA.
  • Buscar una marca de agua. Muchos generadores de IA agregarán automáticamente una marca de agua clara (o incrustada), lo que indica que es IA.
  • Asegúrate de que Instagram, TikTok o YouTube no hayan etiquetado ya la publicación como generada por IA. Cualquier tipo de etiqueta de IA es una señal clara de que lo que estás viendo no es real.

Incluso en la era de la IA, los consejos para detectar estafas no son diferentes de los de la época anterior a la IA. Aunque los estafadores utilizan IA, siguen utilizando las mismas tácticas.

“Las señales de alerta no han cambiado: la urgencia, el estrés y las solicitudes de información personal o de pago siguen siendo los mayores indicios”, dijo en un correo electrónico Abhishek Karnik, jefe de investigación de amenazas de McAfee.

Aquí hay algo Banderas rojas de estafa mantente atento a

  • Piensa antes de hacer clic. Las estafas están diseñadas para crear una sensación de urgencia o una respuesta emocional, dijo Karnick.
  • Comprueba la fuente. ¿El enlace está mal escrito o dañado? ¿Sobre qué producto ha publicado la cuenta oficial de celebridades? ¿Se ha verificado la cuenta? Todo esto puede ayudarle a comprender la realidad de la estafa.
  • sospechar Sitios que solicitan pagos mediante criptomonedas, aplicaciones de pago como Venmo u otras fuentes no autorizadas

Los estafadores intentarán destruir su confianza, dijo Karnick. Ser cuidadoso y cauteloso al compartir su información personal puede ayudarlo a evitar caer en estafas. El hecho de que algo diga que Swift lo respalda o lo utiliza no significa que en realidad lo sea.

Para obtener más información, consulte Cómo detectar estafas bancarias Y Por qué los correos electrónicos de phishing ya no están claros. (Divulgación: Jeff Davis, la empresa matriz de CNET, presentó una demanda contra OpenAI en abril, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA).

Enlace fuente