Home Smartwatch El cazador falso profundo de Google, ¿qué no ves?, Incluso en videos...

El cazador falso profundo de Google, ¿qué no ves?, Incluso en videos sin caras

13

En una época en la que los videos de manipulación pueden extender a las personas y daños impulsados, intimidando, los investigadores del lado del río UC han creado un nuevo sistema poderoso para exponer estas falsificaciones.

El profesor de ingeniería eléctrica e informática, Amit Rai Chaudhry, y el candidato a la Facultad de Ingeniería de Marilyn y Roserie Borons de la UCR, Rohit Kondo, junto con los científicos de Google, estaban preparados para desarrollar un modelo de inteligencia artificial, que reveló el video que manipulaba un gorrión. ۔

La red universal se llama Network Universal para identificar la manipulación y los videos artificiales (United), su nuevo sistema, no solo se enfrenta, sino a marcos de video completos, detecta la falsificación, incluidas las muestras de fondo y movimiento. Este análisis lo convierte en una de las primeras herramientas que puede identificar videos artificiales o doctorados que no dependen del contenido facial.

Kondo dijo: “El fax profundo ha estado listo”. Ya no son solo sobre la conversión facial. La gente ahora está haciendo videos falsos, desde caras hasta fondo, utilizando modelos generativos potentes. Nuestro sistema está diseñado para atraparlos a todos. “

El crecimiento del United viene cuando la generación de texto a video e imagen -a video se ha vuelto ampliamente disponible en línea. Estas plataformas de inteligencia artificial prácticamente permiten a cualquier persona fabricar videos altamente confiables y plantean graves riesgos para las personas, las instituciones y la democracia.

“Es aterrador lo accesible que se han vuelto estas herramientas”, dijo Kundu. “Cualquier persona con habilidades moderadas puede ignorar filtros protectores y producir videos realistas de figuras públicas que nunca han dicho”.

El condominio explicó que los detectores falsos profundos se habían centrado casi por completo en los indicadores faciales.

Él dijo: “Si no hay cara en el marco, muchos detectores no solo funcionan”. “Pero la perfección puede ocurrir en muchas formas. Cambiar los antecedentes de una tierra puede distorsionar fácilmente la verdad”.

Para indicar esto, el universo utiliza un modelo de aprendizaje profundo basado en el transformador para analizar los videoclips. Esta broma detecta contradicciones locales y oportunas. El modelo se basa en un marco de IA básico conocido como el sugente, que elimina las características de una persona o artículo en particular. El método de capacitación de una novela, llamada “Atención a la diversidad”, indica el sistema para monitorear numerosas áreas visuales en cada cuadro y evita que se centre completamente en las caras.

El resultado es un detector universal capaz de marcar un límite de algunas falsificaciones, desde conversos faciales hasta videos complejos y completamente artificiales que no producen imágenes reales.

“Este es un modelo que maneja todos estos escenarios”, dijo Kondo. “Eso es lo que lo hace universal”.

Los investigadores presentaron sus resultados en una conferencia 2025 de alto riesgo sobre la identificación de la visión y el patrón de la computadora (CVPR) en Nash Will, Tan. Los co -autor incluyen a los investigadores de Google Hao Xiang, Vishal Mohanti y Ethola Balachandra. En colaboración con IEE Computer Society y Computer Vision Foundation, el CVPR es el más impacto de las ubicaciones de publicidad científica más grande del mundo.

La cooperación con Google, donde se inscribió el condominio, proporcionó el modelo para capacitar una amplia gama de contenido artificial, proporcionando acceso a datos generalizados y recursos informáticos, incluidos videos hechos de texto o imágenes de acero.

Aunque todavía hay desarrollo, las Naciones Unidas pronto pueden desempeñar un papel importante en la defensa contra la información de video. Los consumidores potenciales incluyen plataformas de redes sociales, verificadores de hechos y salas de redacción que están trabajando para evitar que los videos de manipulación se vuelvan virales.

“La gente merece saber que lo que están viendo es real”, dijo Kundu. “Y como es mejor fingir la verdad, tenemos que ser mejores para revelar la verdad”.

Source link