5 tips para evitar caer en un deepfake

Cuando estamos frente a un video, muchas veces nos surge la duda de si lo que vemos o escuchamos es real y rápidamente aplicamos la lógica de buscar el origen o fuente para verificar la información, pero ¿qué sucede cuando esa fuente incluye un deepfake en el que no seamos capaces de diferenciar de si lo que vemos es real o falso?
Tips para detectar un deepfake

Cuando estamos frente a un video, muchas veces nos surge la duda de si lo que vemos o escuchamos es real y rápidamente aplicamos la lógica de buscar el origen o fuente para verificar la información, pero ¿qué sucede cuando esa fuente incluye un deepfake en el que no seamos capaces de diferenciar de si lo que vemos es real o falso?

¿Cómo detectar un deepfake?

De acuerdo con un estudio reciente publicado en Proceedings of the National Academy of Sciences USA, se ha vuelto cada vez más difícil distinguir entre rostros generados sintéticamente y rostros orgánicos, ya que las caras creadas sintéticamente son fotorrealistas y se consideran casi indistinguibles de las reales, siendo cada vez más confiables.

Aunque la tarea de diferenciarlos es cada vez más desafiante, aún existen detalles a los cuales se debe prestar atención para identificar posibles indicadores de falsificación.

I. Parpadeo de ojos

El parpadeo de los ojos es un proceso natural, la mayoría de las personas realizan esta acción aproximadamente cada 2-8 segundos, con una duración de 1 a 4 décimas de segundo por cada uno. Sin embargo, los algoritmos de deepFake no pueden replicar la velocidad de parpadeo humano, lo cual es evidente al observar la frecuencia en los sujetos de los videos generados por estos algoritmos.

Detección de videos deepfake usando Eye Blinking

Detección de videos deepfake usando Eye Blinking

II. Cuello y rostro

En los deepfake, la mayoría de las veces sustituye la cara de una persona, y los cambios en el cuerpo requieren un mayor esfuerzo. Por lo tanto, la postura y las expresiones faciales de la persona en el video pueden no coincidir completamente. 

Si se observan características diferentes en el cuerpo, como tatuajes, músculos pronunciados o un color de piel distinto, puede ser una señal de que el video es falso y ha sido manipulado mediante la esta tecnología.

III. Duración del clip

La mayoría de los deepfakes que circulan en la web, suelen tener solo unos segundos de duración, quienes crean estos videos optan por clips cortos para minimizar la posibilidad de ser detectados, ya que puede ser más difícil verificar en un tiempo limitado.

Deepfake de Biden y Putin

IV. Fuente de la grabación

Es fundamental en este contexto rastrear la fuente de la grabación, es decir, la persona que compartió inicialmente el video deepfake. Esto puede ayudarnos a entender el contexto de la publicación y verificar si el material original era más detallado de lo que parece.

V. Sincronización de labios

Aunque los deepfakes pueden parecer realistas a simple vista, prestar atención a los detalles, como la apariencia de la boca, puede ser una forma útil de identificar posibles falsificaciones. Por ejemplo, un desenfoque en el interior de la boca puede ser una señal de que la imagen es posiblemente falsa. La Inteligencia Artificial todavía tiene dificultades para representar adecuadamente los dientes, la lengua y la cavidad bucal al hablar.

Es esencial tener precaución y verificar siempre la información que encontramos en línea. Los deepfakes son solo un ejemplo de cómo la tecnología puede utilizarse para generar contenidos falsos y engañosos. Las Fake news son un fenómeno que puede propagarse rápidamente, generando controversias y desinformación. Por lo tanto, es importante ser críticos y buscar fuentes confiables antes

Fast Check CL es un medio de comunicación, que depende de sus suscriptores para financiar el equipo de trabajo que hizo este artículo. Sin ti este proyecto finalizará en 2025. Puedes ser suscriptor/a y ayudarnos a combatir la desinformación en Chile por solo 1.500 al mes. 

Te puede interesar:

Fact checking al Debate de Canal 13

Fast Check realiza un fact-checking en vivo del Debate Presidencial de Canal 13, segundo debate de TV en el marco de las Elecciones 2025, que enfrentan a los candidatos Franco Parisi, Jeannette Jara, Evelyn Matthei, Marco Enríquez-Ominami, Johannes Kaiser, José Antonio Kast, Eduardo Artés y Harold Mayne-Nicholls.

“Instituto Nacional de Derechos Humanos evalúa acciones por apremios de civiles a delincuentes implicados en la muerte de niño en Recoleta”: #Falso

En redes se difundió que el Instituto Nacional de Derechos Humanos habría solicitado una revisión médica de los implicados en el fallecimiento de un niño en Recoleta, luego de ser partícipes de un siniestro vial. Sin embargo, Fast Check califica esto como falso. No hay comunicado del organismo que lo asegure y ellos mismos lo desmintieron.

Últimos chequeos:

“Instituto Nacional de Derechos Humanos evalúa acciones por apremios de civiles a delincuentes implicados en la muerte de niño en Recoleta”: #Falso

En redes se difundió que el Instituto Nacional de Derechos Humanos habría solicitado una revisión médica de los implicados en el fallecimiento de un niño en Recoleta, luego de ser partícipes de un siniestro vial. Sin embargo, Fast Check califica esto como falso. No hay comunicado del organismo que lo asegure y ellos mismos lo desmintieron.

“Santiago 1 está ocupado al 36-38%”: #Falso

El dato entregado por el candidato es incorrecto: según cifras oficiales de Gendarmería, el penal Santiago 1 registra una ocupación superior al 150%, muy lejos del 36-38% mencionado por Johannes Kaiser.

El personaje que canta en el jingle de Jeanette Jara es ‘Il Nene de Oro’, cantante condenado por tráfico de drogas: #Falso

Tras el lanzamiento del jingle oficial de la campaña de Jeannette Jara, comenzó a circular la versión de que el tema habría sido interpretado por Jesús Ortiz, conocido artísticamente como Nene de Oro, quien fue detenido en 2024 durante un operativo de la PDI por tráfico de armas y drogas en Estación Central. Sin embargo, esto es #Falso: el mánager de Ortiz confirmó a Fast Check CL que no mantienen ningún vínculo con campañas políticas, y desde el comando de la candidata precisaron que la voz pertenece al rapero Seo2, exintegrante del grupo Makiza.

Donald Trump prohíbe conciertos de Bad Bunny en Estados Unidos: #Falso

Tras conocerse que Bad Bunny se presentará en el show de medio tiempo del Super Bowl, se viralizaron videos de Donald Trump anunciando que prohibirá sus conciertos en Estados Unidos y del cantante respondiéndole. Fast Check calificó esto como #Falso, pues no se ha hecho tal anuncio y los videos se hicieron con inteligencia artificial.

“Instituto Nacional de Derechos Humanos evalúa acciones por apremios de civiles a delincuentes implicados en la muerte de niño en Recoleta”: #Falso

En redes se difundió que el Instituto Nacional de Derechos Humanos habría solicitado una revisión médica de los implicados en el fallecimiento de un niño en Recoleta, luego de ser partícipes de un siniestro vial. Sin embargo, Fast Check califica esto como falso. No hay comunicado del organismo que lo asegure y ellos mismos lo desmintieron.