- Obtener enlace
- Correo electrónico
- Otras aplicaciones
- Obtener enlace
- Correo electrónico
- Otras aplicaciones
Universidades y gigantes
tecnológicos han estado trabajando arduamente en
herramientas que puedan detectar los deepfakes en un esfuerzo de prevenir su
uso para difundir contenido malicioso o desinformación. Los detectores de
deepfakes, sin embargo, todavía no son del todo eficientes. Un grupo de
investigadores de ciencias de la computación de la Universidad de San Diego ha
alertado de este hecho. Han demostrado como algunas herramientas de detección pueden ser burladas insertando un input llamado "ejemplos adversarios"
en cada fotograma de los vídeos.
En su anuncio, los científicos han explicado que estos "ejemplos adversarios" son imágenes manipuladas que pueden causar que los sistemas de inteligencia artificial se equivoquen. Prácticamente todos los detectores trabajan siguiendo los rostros de los vídeos y enviando su rostro recortado a una red neural. Asi, el sistema de detección puede determinar si el vídeo es auténtico buscando elementos que no se reproducen bien en los deepfakes, como el parpadeo
Así, insertando ejemplos adversarios son capaces de engañar
a estos detectores. De hecho la técnica funciona incluso en vídeos comprimidos
en los que no tienen acceso completo al detector de modelos. Así, de momento los deepfakes pueden evadir
incluso las mejores herramientas de detección.
Copyright, Sport
- Obtener enlace
- Correo electrónico
- Otras aplicaciones
Comentarios
Publicar un comentario