CELAC y China impulsan tecnología agrícola para enfrentar pandemia.

Los son cada vez más difíciles de detectar.

 


Universidades y gigantes tecnológicos han estado trabajando arduamente en herramientas que puedan detectar los deepfakes en un esfuerzo de prevenir su uso para difundir contenido malicioso o desinformación. Los detectores de deepfakes, sin embargo, todavía no son del todo eficientes. Un grupo de investigadores de ciencias de la computación de la Universidad de San Diego ha alertado de este hecho. Han demostrado como algunas herramientas de detección pueden ser burladas insertando un input llamado "ejemplos adversarios" en cada fotograma de los vídeos.

En su anuncio, los científicos han explicado que estos "ejemplos adversarios" son imágenes manipuladas que pueden causar que los sistemas de inteligencia artificial se equivoquen. Prácticamente todos los detectores trabajan siguiendo los rostros de los vídeos y enviando su rostro recortado a una red neural. Asi, el sistema de detección puede determinar si el vídeo es auténtico buscando elementos que no se reproducen bien en los deepfakes, como el parpadeo

Así, insertando ejemplos adversarios son capaces de engañar a estos detectores. De hecho la técnica funciona incluso en vídeos comprimidos en los que no tienen acceso completo al detector de modelos. Así, de momento los deepfakes pueden evadir incluso las mejores herramientas de detección.

Copyright, Sport


   

Comentarios