Redes sociales y el peligro de los videos deepfake

Los videos falsos protagonizados por personajes famosos se han vuelto cada vez más populares y asequibles, situación que genera peligros en las redes sociales. Metro investiga.

Por Carlos J. Basora O.

Ya sabíamos de la existencia de los videos deepfake, una técnica de inteligencia artificial que permite editar videos falsos de personas que parecen ser reales, pero recientemente se volvieron muy importantes con la publicación de videos deepfake protagonizados por personas relevantes como el presidente Donald Trump, la congresista Nancy Pelosi e incluso el fundador de Facebook Mark Zuckerberg, situación que ha reabierto el debate sobre qué debe hacerse con este tipo de videos.

Fue precisamente la reciente publicación en Instagram de un deepfake de Mark Zuckerberg, creado por dos artistas británicos, Bill Posters y Daniel Howe, en colaboración con Canny AI, una compañía publicitaria israelí,  lo que puso a prueba las normas de Facebook sobre videos falsos, debido a que en un principio la red social se negaba a eliminar ese tipo de contenido de su plataforma, al considerar que no tienen “una política que estipule que la información que se publica en Facebook deba ser verdad”.

Tras la publicación del video falso protagonizado por Zuckerberg, el propio fundador de Facebook reconoce que sería ‘sensato’ que la red social adopte una serie de políticas específicas para este tipo de contenido. Durante una conferencia en el Aspen Ideas Festival, el CEO de Facebook declaró que los deepfakes deberían ser tratados de manera diferente a la forma en que tratamos la desinformación clásica.

Sin embargo, especialistas consideran que no sería una tarea fácil regular los deepfake en las redes sociales, debido a que no todos los videos de este tipo son malignos, de hecho algunos son utilizados con fines educativos y borrarlos todos podría convertirse en censura.

“No todos ldeepfakes son necesariamente problemáticos. Las falsificaciones profundas también pueden utilizarse en un contexto educativo o cultural, como muestra, el ejemplo de un museo de arte en Florida, donde los visitantes pueden interactuar con un deepfake de Salvador Dalí. Así que para las compañías de redes sociales la verdadera pregunta es cuál debería ser la política en torno a las falsificaciones maliciosas”, dijo John Villasenor, profesor de la Brookings Institution y profesor de ingeniería eléctrica, política pública, derecho y administración en la Universidad de California, Los Ángeles.

De hecho, el reciente deepfake de Zuckerberg fue creado como parte de una exhibición del festival de cine en Sheffield, según explicó a Metro Omer Ben-Ami, co-fundador de Canny AI, quien también destacó que la motivación de desarrollar este video fue crear conciencia sobre estas tecnologías en un entorno seguro en el que el espectador sabe que es parte de una exposición.

Aunque existen deepfakes maliciosos y otros cuya única intención es el entretenimiento, lo cierto es que cada vez podemos ver este tipo de videos con más frecuencia en las redes sociales e incluso en pornografía, donde permite crear falsas cintas de sexo con celebridades.

El crecimiento de esta nueva tecnología ha sido exponencial a pesar de que lleva apenas dos años de existencia. Los orígenes de esta tecnología se remontan al verano de 2017,cuando investigadores de la Universidad de Washington recrearon al ex presidente de Estados Unidos, Barack Obama, y fueron capaces de poner cualquier palabra en su boca.

Expertos reconocen que cada vez es más fácil hacer deepfake, incluso desde casa y con una simple computadora. “Los algoritmos para hacer deepfakes han mejorado cada vez más, reduciendo la cantidad de recursos computacionales necesarios para generar algo convincente. También estamos poniendo cada día más y más datos en Internet, lo que sólo aumenta el número de ejemplos que se pueden usar para enseñarles”, dijo a Metro Karen Haro, reportera especializada en tecnología del MIT Technology Review.
“Hoy en día, cualquier persona con una computadora y acceso a Internet puede hacer y distribuir un deepfake”, agregó Villasenor.

La cada vez mayor facilidad para hacer este tipo de videos falsos supone una mayor probabilidad de que sean utilizados de manera maliciosa, como ya ha pasado en la India, donde los nacionalistas hindúes utilizaron esta tecnología para crear un video pornográfico falso supuestamente protagonizado por la periodista Rana Ayyub, quien estaba descubriendo casos de corrupción del gobierno. Mientras en Estados Unidos la tecnología comenzó a ser utilizada  para crear deepfakes pornográficos de venganza contra exnovias, amigos e incluso compañeros de clase.

“Hay una larga historia de uso de información falsa para perturbar el discurso político o para apuntar a individuos, particularmente de poblaciones vulnerables. Los deepfakes sólo intensificarán las consecuencias de esas actividades porque pueden ser muy persuasivos. Ya se ha utilizado la tecnología para crear imágenes sexuales no consensuales de mujeres, por ejemplo, que podrían ser objeto de un intenso acoso en línea, incluidas las amenazas de muerte, y de un profundo trauma emocional. A medida que las falsificaciones sean cada vez más accesibles, empezaremos a ver más y más de estos ejemplos”, concluye Haro.


P&R

¿Por qué decidisteis hacer vídeos de deepfake?

– Como contexto general, deepfake es el nombre de un proyecto de código abierto para el intercambio de caras, mientras que la tecnología que desarrollamos se llama Video Dialogue Replacement, o VDR. Con VDR si tenemos un video de usted, podemos reemplazar el diálogo en el video para que se vea como usted pero diciendo algo diferente.

Como herramienta de producción, será una herramienta para reutilizar el contenido existente reemplazando el diálogo o creando más contenido y reduciendo los costes. Imagínese, por ejemplo, un representante de ventas que crea vídeos de marketing pero que quiere personalizarlos para cada cliente – esta tecnología podría reducir fácilmente el tiempo y los costes que implica la creación de este tipo de contenido.
Independientemente de estos casos de uso, siempre estamos explorando las ideas y tecnologías que se podrían utilizar para detectar este tipo de manipulaciones y cómo nosotros, como empresa con la experiencia para crearlas, también podríamos proporcionar estos servicios de detección. Por ahora estamos involucrados en un par de proyectos de concientización pública como el video de Zuckerberg.

¿Qué tipo de tecnología utilizan para hacerlos?

– Tenemos nuestros propios algoritmos de inteligencia artificial que reciben como entrada un vídeo de destino y de origen y recrean los movimientos faciales en el vídeo de destino de acuerdo con los movimientos faciales en el vídeo de origen.

¿Se está volviendo cada vez más fácil hacer vídeos?

– Los deepfakes como proyecto de código abierto creó la creencia equivocada de que es fácil crear videos de intercambio de caras, aunque mucha gente talentosa trabajó en la creación de ese proyecto, así que si dejara de ser de código abierto sería definitivamente muy difícil para las personas que no tienen este tipo de conocimiento crear estos videos.

Para los que hacemos (VDR) es nuestra propia IP la que desarrollamos y a menos que alguien cree algo similar como un proyecto de código abierto, no creo que sea fácil de crear. Además, al menos por ahora para obtener buenos resultados es necesario un hardware costoso que está involucrado en la creación de estos videos.

Cuéntanos sobre el vídeo falso sobre Mark Zuckerberg.

– El vídeo de Mark Zuckerberg formaba parte de una obra que nos encargó un par de artistas del Reino Unido, que tenía una exposición en el marco de un festival de cine en Sheffield. Parte de nuestra motivación fue, por supuesto, crear conciencia sobre estas tecnologías en un entorno seguro en el que el espectador sabe que es parte de una exposición. Debo mencionar que esta parte de la exposición se trataba de influir en una celebridad y no se centraba en Zuckerberg o Facebook, pero la atención de los medios de comunicación a este tema estaba relacionada con el vídeo de Nancy Pelosi que Facebook se negó a bajar. Sin hablar específicamente de Facebook, pero creemos que las plataformas de medios sociales y los medios de comunicación tendrán que hacer un mejor trabajo en la verificación de la fuente del contenido que publican y dejar que el espectador sepa si la fuente es verificada o no, lo que solía ser una práctica común en el periodismo que ahora es tristemente olvidada.

Algunas personas piensan que las redes sociales deberían eliminar este tipo de vídeos. ¿Cuál es tu opinión al respecto?

– Eventualmente casi todo el contenido que vemos es manipulado de una forma u otra, si es con Photoshop o herramientas de edición de vídeo, hasta sofisticados efectos visuales. Así que no creo que haya una respuesta definitiva a lo que son exactamente “este tipo de vídeos”. Si la gente se refiere a ese contenido que contiene difamación, o contenido que es malicioso, estoy seguro de que las plataformas sociales ya lo manejan y deberían hacer lo mismo.

¿Crees que estos videos falsificados representan algún tipo de peligro?

– El peligro es siempre la desinformación, sin importar el tipo de contenido, ya sea texto, fotos o videos. Pero todos estamos acostumbrados a Photoshop y sabemos que es muy fácil manipular fotos, pero para el vídeo esto es todavía nuevo – aunque el vídeo de Nancy Pelosi fue creado utilizando herramientas de edición de vídeo muy básicas que son accesibles a cualquier persona. Con el tiempo estamos seguros de que la gente se acostumbrará a la idea de que también para el vídeo y el audio se debe verificar el contenido y sus fuentes, y sólo los beneficios de esta tecnología prevalecerán, como lo fue con herramientas similares de edición de texto y fotos.


 

Loading...
Revisa el siguiente artículo