Es casi demasiado bueno para ser verdad. Un médico que ha visto en la televisión durante décadas está recurriendo a las redes sociales para defender un nuevo producto revolucionario que las grandes farmacéuticas rezan y que usted no sabe que puede curar su dolencia.
Parece pero no todo. Los estafadores están utilizando tecnología de inteligencia artificial para crear videos falsos de médicos famosos de la televisión como Hilary Jones, Michael Mosley y Rangan Chatterjee para promocionar sus productos en las redes sociales entre miembros desprevenidos del público.
Un nuevo informe, publicado por Prestige Revista médica británica (BMJ), ha advertido de la creciente aparición de los llamados ‘deepfakes’
Deepfaking utiliza IA para mapear la imagen digital de un ser humano de la vida real en un video de un cuerpo que no es el suyo.
Se han utilizado para hacer vídeos de políticos para hacerlos parecer incompetentes e incluso para piratería corporativa y ahora se utilizan para vender “curas” disfrazadas.
Algunos de los clips descubiertos por la investigación del BMJ incluyen vídeos del fallecido Dr. Michael Mosley, fallecido en Grecia el mes pasado, que parecen promover una cura para la diabetes en Facebook.
Otro video ‘reel’ compartido en la red social muestra a Lorraine de ITV con la voz robótica de la Dra. Hilary Jones mientras afirma que los medicamentos para la presión arterial curan ocho de cada 10 casos.
Los videos son, por supuesto, falsos y no están respaldados por nadie cuyo rostro y voz hayan sido utilizados por estafadores para vender medicamentos falsificados.
Los estafadores utilizan cada vez más la tecnología de inteligencia artificial para crear videos falsos de médicos famosos de la televisión como Hilary Jones, Michael Moseley y Rangan Chatterjee para promocionar sus productos en las redes sociales entre miembros desprevenidos del público.
La voz y la imagen del difunto Dr. Michael Mosley han sido cruelmente explotadas por estafadores que intentan vender medicamentos falsos para la diabetes a través de videos deepfake.
Un clip alterado de la Dra. Hilary Jones apareciendo en Lauren la muestra recetando un nuevo tipo de medicamento para la presión arterial, pero el clip es completamente falso, creado con inteligencia artificial.
El Dr. Jones es solo uno de los médicos televisivos que se dio cuenta de esta tendencia, con un video deepfake que respalda una cura para la presión arterial que se volvió viral en Facebook a principios de este año.
Y el propio Dr. Jones sabe que este está lejos de ser el único ejemplo.
“Algunos de los productos que actualmente se promocionan con mi nombre incluyen gomitas de cáñamo con nombres como Via Hemp Gummies, Bouncy Nutrition y Eco Health, que afirman curar la presión arterial y la diabetes”, dijo.
El gurú de la salud masculino, el Dr. Mosley, que murió en Grecia el mes pasado, y el Dr. Chatterjee, famoso por Doctor in the House, también se han utilizado para producir dichos clips.
Aunque la tecnología utilizada para crear deepfakes existe desde hace años, las primeras versiones eran defectuosas y a menudo estaban mal colocadas en los oídos, los dedos o el audio y no coincidían con los movimientos de los labios del sujeto, lo que advertía a las personas sobre su naturaleza engañosa.
Pero ha avanzado mucho desde entonces, y aunque los datos de investigación limitados sugieren que hasta la mitad de las personas luchan por distinguirlos de los reales.
El médico jubilado John Cormack, que trabajó con el BMJ en el informe, describió a los estafadores como “imprimiendo dinero” al apropiarse de la reputación de médicos respetados y sus productos.
“La conclusión es que gastar dinero en producción de vídeo es mucho más barato que investigar y crear nuevos productos y llevarlos al mercado de la forma tradicional”, afirmó.
Los reguladores parecen impotentes para detener la tendencia.
Los médicos que ejercen en el Reino Unido deben estar registrados en el Consejo Médico General, que, si se descubre que un médico ha incumplido los estándares que se esperan de los profesionales médicos, puede suspenderlos de trabajar o incluso suspenderlos por completo.
Pero no tienen la capacidad de trabajar con videos falsos de médicos, y aunque hacerse pasar por un médico es un delito en el Reino Unido, el turbio mundo de Internet hace que sea casi imposible mantener una cuenta, especialmente si viven en el extranjero.
En cambio, médicos como el Dr. Jones dicen que los gigantes de las redes sociales que albergan este contenido y, en última instancia, ganan dinero con ello, deben dar un paso al frente.
“Corresponde a empresas como Meta, la empresa propietaria de Facebook e Instagram, cerrarlo”, dijo.
“Pero no tienen ningún interés en hacerlo cuando están ganando dinero”.
El Dr. Rangan Chatterjee, del documental de la BBC Doctor in the House, también se ha dado cuenta de la tendencia.
En respuesta al informe del BMJ, un portavoz de Meta dijo: Investigaremos los ejemplos destacados por el BMJ.
‘No permitimos contenido que engañe o intente engañar intencionalmente a otros, y trabajamos constantemente para mejorar la detección y el cumplimiento.
“Animamos a cualquier persona que vea contenido que pueda violar nuestras políticas a que lo informe para que podamos investigar y tomar medidas”.
En este punto, los médicos como el Dr. Jones deben tomar el asunto en sus propias manos.
El Dr. Jones, un invitado frecuente en programas como The Lorraine Program, contrata a una empresa para rastrear los deepfakes que presenta e intentar eliminarlos de Internet.
Pero añadió que la magnitud del problema parece estar empeorando.
“Ha habido un gran aumento en este tipo de actividad”, afirmó.
“Incluso si los eliminan, aparecen al día siguiente con un nombre diferente”.
El informe concluye diciendo que lo que hace que los deepfakes sean tan insidiosos es que juegan con la confianza de las personas, aprovechando una cara familiar que en el pasado ha ofrecido buenos consejos de salud, y a veces transformadores, a pacientes preocupados.
Fuera del mundo de la medicina, los estafadores han utilizado la imagen del experto en presupuestos Martin Lewis para promover inversiones imprudentes, algo que el propio Lewis ha dicho a la gente que no haga.
Se recomienda a las personas que ven un vídeo que sospechan que es un deepfake que primero lo revisen cuidadosamente para evitar una situación de “niño que gritó lobo”.
Si todavía sospecha, intenta contactar a la persona que aparece en el video de forma independiente, por ejemplo, a través de una cuenta verificada.
Si aún tiene dudas, considere dejar un comentario que cuestione su autenticidad para, con suerte, obligar a otros a dar ese paso adicional de análisis.
Las personas pueden usar las herramientas de informes integradas en las redes sociales para marcar tanto el video como a la persona que lo publicó para eliminarlo.










