5 aplicaciones de IA para detectar deepfakes

En este blog te presentamos algunas herramientas que te pueden ayudar a identificar si estas frente a un deepfake.

Cada vez cuesta más distinguir si una imagen está creada con inteligencia artificial. Lo mismo ocurre con los videos o audios cuando están inventados e igualan la apariencia y el sonido de una persona. En este blog te presentamos algunas herramientas que te pueden ayudar a identificar si estas frente a un deepfake.


Por Fast Check

Un deepfake es una imagen, un video o un audio que está creado e imita la apariencia y el sonido de una persona.

Deepfake de Biden y Putin
Imagen creada con IA

Los deepfakes son generados por inteligencia artificial y la mayor parte del tiempo se pueden ver en videos o filtros de realidad aumentada.

De hecho, el término proviene de la combinación de las palabras «deep learning» y «fake», para representar algo falso que es resultado de la tecnología de aprendizaje profundo, según Seon.

A continuación te presentamos 5 herramientas que puedes utilizar para detectar y no caer en deepfakes.

1) TensorFlow y PyTorch 

TensorFlow y PyTorch son dos ejemplos de herramientas gratuitas que emplean redes neuronales profundas para detectar deepfakes.

Pero, ¿qué es una red neuronal profunda? Esta es una técnica de aprendizaje automático que permite a un computador, mediante su entrenamiento, realizar funciones que serían muy difíciles de llevar a cabo utilizando técnicas de programación convencionales, según Botpress.

Los algoritmos de redes neuronales se inspiraron en el cerebro humano, están diseñados para funcionar no solo siguiendo una lista preestablecida de reglas, sino prediciendo soluciones y sacando conclusiones basadas en repeticiones y experiencias anteriores.

TensorFlow

Es una plataforma para construir y entrenar redes neuronales, que permiten detectar y descifrar patrones y correlaciones, similares al aprendizaje y razonamiento usados por los humanos, según la descripción del mismo sitio.

¿Cómo funciona la aplicación para reconocer una imagen? En este caso se pueden encontrar capas de entrada y de salida. Las redes neuronales van aprendiendo automáticamente. Memorizan representaciones cada vez más abstractas de los datos que reciben de las imágenes. Las neuronas detectan líneas, formas y texturas, entre otras cosas, para reconocer una imagen, objeto, etc.

También, se puede utilizar para analizar videos y pistas de audio con el fin de detectar indicios de manipulación. Los usuarios solo tienen que subir ejemplos de contenidos reales y falsos para entrenar un modelo de detección que sea capaz de diferenciar entre ambos.

PyTorch

Es un marco de código abierto para aprendizaje automático, y se basa en el lenguaje de programación Python y la biblioteca de la Antorcha. Fue desarrollado en 2016 por un equipo de investigadores para inteligencia artificial por Facebook para mejorar la eficiencia del desarrollo y despliegue de prototipos de investigación. PyTorch computa con tensores, que se aceleran mediante procesadores gráficos. El framework permite realizar más de 200 operaciones matemáticas diferentes.

2) Deepware

Es una aplicación que se utiliza para el análisis y detección de videos deepfake. El uso de la herramienta es gratuito, se utiliza desde el navegador sin tener que instalar programas y no necesita registro.

¿Cómo se utiliza?

Todo lo que debes hacer es escribir o pegar la URL del video, hacer clic en el botón “SCAN” y esperar los resultados.

También puedes usarla para analizar videos que no están almacenados en Internet. Solo tienes que cargar la grabación que quieres analizar y seguir los pasos anteriores, es decir, pulsar en “SCAN” y esperar los resultados.

Al igual que otros detectores de deepfakes, los modelos de deepware buscan signos de manipulación en el rostro humano. La principal limitación de la herramienta es su incapacidad para detectar técnicas de sustitución de voz.

3) Sensity

Esta herramienta está especializada en la detección de deepfakes y de imágenes generadas por inteligencia artificial (IA). Lo que permite la aplicación es analizar señales visuales y contextuales para identificar IA.

La herramienta no es gratuita; las tarifas dependen del uso mensual y las áreas de interés individuales.

4) Hive

Con esta aplicación, tanto textos como imágenes digitales se pueden escanear para comprobar su identidad. Para chequear una imagen, los usuarios suben un archivo a la sección de detección de contenidos generados por IA para que sea procesado rápidamente.

También existe la extensión para Chrome Hive AI Detector, que permite a los usuarios detectar gratuitamente texto e imágenes generados por IA desde el navegador, según Ijnet (Red Internacional de Periodistas)

Puedes verificar tanto texto como imagen

5) Illuminarty

Por último, está Illuminarty, la cual también ofrece la posibilidad de detectar imágenes y texto generados por IA.

Con esta aplicación, los usuarios pueden identificar dónde está exactamente la manipulación en una imagen falsa y a partir de qué modelos de IA se ha generado.

https://www.fastcheck.cl/2023/09/15/imagen-el-ultimo-sabueso-gris-irlandes-gigante-1902-falso/

Cabe recordar que todas las herramientas mencionadas en este blog, ayudan a combatir los deepfakes, pero no son 100% precisas, según Ijnet.

Por último, un punto que hay que tener en cuenta a la hora de detectar un deepfake es observar la imagen, el video o el audio. Generalmente, los contenidos hechos con IA no son perfectos: Fíjate en el parpadeo de los ojos, el rostro, el cuello y siempre cuestiónate la fuente de procedencia.

Fast Check CL es un medio de comunicación, que depende de sus suscriptores para financiar el equipo de trabajo que hizo este artículo. Sin ti este proyecto finalizará en 2025. Puedes ser suscriptor/a y ayudarnos a combatir la desinformación en Chile por solo 1.500 al mes. 

Te puede interesar:

Limusina

SLEP Atacama ha pagado más de $4.890 millones a empresas vinculadas al organizador de fiesta con limusina

Tras la celebración del quinto aniversario del Servicio Local de Educación Pública (SLEP) de Atacama, difundida a través de un video que generó controversia, se reactivaron los cuestionamientos sobre los vínculos contractuales del servicio con empresas asociadas a Edward Sierra Veragua, fundador de la sociedad que organizó el evento. En este contexto, Fast Check CL revisó los registros de Mercado Público y constató que otras tres empresas relacionadas con Sierra —una de ellas constituida junto a su hermana— han concentrado montos millonarios adjudicados por organismos del Estado, principalmente mediante contratos con el SLEP de Atacama.

(Imagen) “Eduardo Frei sorprende con insólita frase: ‘Con el capitalismo se construyen rascacielos, con el comunismo se construyen rasca piojos”: #Falso

Se difunde en redes una portada de un medio de comunicación, la cual cita una supuesta afirmación del expresidente Eduardo Frei: «Con el capitalismo se construyen rascacielos, con el comunismo se construyen rasca piojos». Fast Check califica el contenido como #Falso. La declaración no posee cobertura mediática y desde el equipo de Frei la desmintieron.

Cerro Navia: auditoría detecta más de 8 mil medicamentos vencidos en Cesfam, algunos desde el 2011

Una auditoría de la Contraloría General de la República detectó irregularidades en la gestión del Departamento de Salud de Cerro Navia durante el periodo 2023–2024. Entre los principales hallazgos se encuentran la fragmentación de contratos por $480 millones, la emisión de una orden de compra a un proveedor que ya había fallecido y la existencia de más de 8 mil medicamentos vencidos fuera de circulación. A ello se suma una deuda previsional originada en la extinta CORMUCENA, que se arrastra desde hace 16 años y que supera los $13 mil millones, situación que derivó en la instrucción de un sumario administrativo a la Municipalidad de Cerro Navia.

⁠Hitos duplicados e inauguraciones repetidas: los errores detectados en la lista de más de “1.000 avances” que presentó el gobierno

En un intento por destacar la gestión realizada durante estos casi cuatro años de mandato, el gobierno presentó una lista con los «más de 1.000 avances» atribuidos a la administración del presidente Gabriel Boric. Fast Check detectó múltiples casos en los que estos avances fueron incluidos más de una vez e incluso copiados de forma explícita. Desde Segegob explicaron que el «límite de tiempo de ediciones y actualizaciones, podrían seguir realizándose hasta el fin de la actual administración».

(Video) “El búnker donde vivía Maduro”: #Falso

Se viralizó en redes sociales un video que muestra un búnker de lujo supuestamente vinculado al presidente venezolano Nicolás Maduro. Fast Check califica este contenido como #Falso, no existen reportes oficiales sobre el fortín expuesto y el contenido presenta altos indices de manipulación artificial.

Últimos chequeos:

(Video) “El búnker donde vivía Maduro”: #Falso

Se viralizó en redes sociales un video que muestra un búnker de lujo supuestamente vinculado al presidente venezolano Nicolás Maduro. Fast Check califica este contenido como #Falso, no existen reportes oficiales sobre el fortín expuesto y el contenido presenta altos indices de manipulación artificial.

(Video) “Putin llega a Corea del Norte (…) es un claro mensaje geopolítico a Trump”: #Engañoso

Se comparte en la red social X un video del presidente ruso Vladimir Putin siendo recibido en Corea del Norte por el presidente de dicho país, Kim Jong-Un. El post afirma que esta reunión es un mensaje geopolítico en contra del presidente estadounidense Donald Trump. Fast Check califica este contenido como #Engañoso, el video es real, pero es de junio de 2024, Trump todavía no asumía presidencia de Estados Unidos.

(Imagen) “Eduardo Frei sorprende con insólita frase: ‘Con el capitalismo se construyen rascacielos, con el comunismo se construyen rasca piojos”: #Falso

Se difunde en redes una portada de un medio de comunicación, la cual cita una supuesta afirmación del expresidente Eduardo Frei: «Con el capitalismo se construyen rascacielos, con el comunismo se construyen rasca piojos». Fast Check califica el contenido como #Falso. La declaración no posee cobertura mediática y desde el equipo de Frei la desmintieron.

Antes de asumir: alcalde de Pelarco viajó dos veces fuera del país mientras mantenía licencia médica con reposo total

La Contraloría Regional del Maule detectó incumplimientos de reposo por licencias médicas cometidos por el actual alcalde de Pelarco, Cristian Cabrera Lazo, cuando se desempeñaba como funcionario del DAEM de la comuna, así como situaciones similares que involucraron a un concejal en ejercicio y a una funcionaria municipal. En un ámbito distinto, el organismo fiscalizador objetó viajes realizados durante 2025 por autoridades y funcionarios municipales, ordenando el reintegro de casi $7 millones en viáticos debido a la falta de acreditación de actividades institucionales asociadas a dichos desplazamientos.

Limusina

SLEP Atacama ha pagado más de $4.890 millones a empresas vinculadas al organizador de fiesta con limusina

Tras la celebración del quinto aniversario del Servicio Local de Educación Pública (SLEP) de Atacama, difundida a través de un video que generó controversia, se reactivaron los cuestionamientos sobre los vínculos contractuales del servicio con empresas asociadas a Edward Sierra Veragua, fundador de la sociedad que organizó el evento. En este contexto, Fast Check CL revisó los registros de Mercado Público y constató que otras tres empresas relacionadas con Sierra —una de ellas constituida junto a su hermana— han concentrado montos millonarios adjudicados por organismos del Estado, principalmente mediante contratos con el SLEP de Atacama.

(Video) “Nicolás Maduro en sus 30 minutos al aire libre diarios en la cárcel de Brooklyn, Nueva York”: #Falso

Durante este fin de semana, se viralizó un video de Nicolás Maduro caminando por lo que aparentemente sería uno de los espacios recreacionales para los reclusos de la cárcel en la que se encuentra. Sin embargo, Fast Check califica esto como #Falso. El video se generó con inteligencia artificial, sumado a que dicho centro penitenciario no presenta espacios al aire libre como el que se ve en el video.

(Video) “Robert de Niro en los Globos de Oro: ‘que se joda Trump'”: #Engañoso

Tras la realización de la ceremonia de los Globos de Oro 2026 de este pasado domingo 11 de enero se viralizó un video del actor Robert De Niro en pleno escenario diciendo «que se joda Trump». Fast Check calificó esto como #Engañoso, ya que el registro data de 2018 y ni siquiera fue en los Globos de Oro, sino en la ceremonia de los Premios Tony.