No creas todo lo que veas. La amenaza de DeepFake

DeepFake

Cuando parecía que nos estábamos acostumbrando a evitar correos fraudulentos y convivir con las famosas “Fake News”, las nuevas tecnologías nos traen nuevas amenazas, más poderosas y potencialmente más difíciles de esquivar.

Tras las pasadas elecciones generales del 10-N empezó a circular por todas las redes sociales un divertido vídeo que mostraba a los famosos integrantes del equipo A con la cara de un puñado de líderes políticos españoles. Investigando un poco resulta que la realización de este corto, titulado “Equipo E”, no es fruto de un friki con mucho tiempo libre y ganas de hacerse famoso. Según parece el trabajo ha sido de forma profesional, como una acción de marketing para aumentar la popularidad de una herramienta de código abierto llamada DeepFakeLab que ya lleva algún tiempo circulando por las redes.

Este software basado en inteligencia artificial permite editar cualquier vídeo y sustituir el rostro de una persona por el de otra. Estos programas se empezaron a utilizar hace unos años para la edición de vídeos para adultos y de parodias humorísticas. Aunque esto en sí mismo ya puede suponer un grave ataque a las personas utilizadas, un problema de una magnitud mayor surge cuando la tecnología alcanza un grado de madurez en el que empieza a ser difícil distinguir un vídeo manipulado de uno real.

Actualmente ya parece viable realizar un vídeo perfectamente creíble en el que cualquier personaje público aparezca actuando de forma impropia o diciendo cualquier barbaridad. Hace unos meses surgió la noticia de una grabación con unas supuestas declaraciones de Mark Zuckerberg que eran completamente falsas. También se hizo famoso otro vídeo de Nancy Pelosi, la presidente de la cámara de representantes de EEUU, manipulado para que pareciera ebria.

Además de la amenaza evidente de manipular a la opinión pública, también existe el riesgo del engaño personal para cometer algún tipo de fraude. Hace tan solo unos días, se publicó la noticia de una estafa utilizando una herramienta capaz de simular la voz de otra persona durante una conversación. Se había utilizado para engañar a un alto ejecutivo y hacerle creer que su CEO le llamaba directamente para que hiciera una transferencia urgente de una elevada suma de dinero.

En el otro lado de la balanza podemos pensar que la misma tecnología que crea las amenazas puede servir para combatirlas. Existen herramientas para intentar detectar si una foto, audio o vídeo ha sido manipulado. El problema es que, siguiendo la eterna teoría de la espada y el escudo, siempre aparecerá una versión mejorada más difícil de detectar. Además en muchos casos la detección no evitará el daño producido.

Desde el punto de vista legal también es necesario aumentar la protección. En California se acaba de aprobar una ley que declara delito la creación de vídeos para adultos de este tipo sin el consentimiento de las personas implicadas. También prohíbe la distribución de contenido manipulado que pueda dañar o confundir la imagen de cualquier político. Seguramente este tipo de legislación se incluirá de forma rápida en casi todos los países. Sin embargo, actualmente es demasiado difícil perseguir de forma efectiva a los autores de estas acciones como para que realmente estas medidas sean suficientes.  Es posible que llegue el día en que sólo sea posible visualizar contenido cifrado y firmado de tal modo que permita trazar el origen de forma inequívoca, pero esa solución no es evidente y no parece que podamos contar con ella a corto plazo.

En cualquier caso, para evitar estar indefensos ante estas nuevas tecnologías el primer paso, como siempre, es conocer las amenazas y ser conscientes de sus posibilidades. A partir de ahí lo importante es que aprendamos a contrastar las cosas. Es imprescindible que como individuos mejoremos nuestra capacidad crítica ante la información que recibimos, especialmente si lo que nos ha llegado confirma nuestra opinión o nos interesa de algún modo.

Autor: Crescencio Lucas Herrera

Las opiniones vertidas por el autor son enteramente suyas y no siempre representan la opinión de GMV
The author’s views are entirely his own and may not reflect the views of GMV
Share

    Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

      I accept the privacy policy Acepto la Política de Privacidad

    Basic Data-Protection information:

    Data-protection supervisor: GMV Innovating Solutions SL
    Purpose: Answer questions, respond to user complaints and recommendations, receive job applicants resumes and career information.
    Legitimation: Consent of data subject
    Addresses: Grupo GMV companies
    Rights: Access, rectify and cancel data plus other rights, as explained in additional information
    Additional information: You can check out the additional and detailed data-protection information on our website:Privacy Policy

    Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

    WP-SpamFree by Pole Position Marketing

    1.634 Total Views