(Imagen) Hombre rescatando a niños en Gaza: #Falso

Circula la imagen de un hombre llevando a varios niños con él en medio de los escombros de un edificio, haciendo alusión a que se trataría de un hecho ocurrido en Gaza. Sin embargo, Fast Check CL lo calificó como #Falso. La imagen fue creada con inteligencia artificial.

Circula la imagen de un hombre llevando a varios niños con él en medio de los escombros de un edificio, haciendo alusión a que se trataría de un hecho ocurrido en Gaza. Sin embargo, Fast Check CL lo calificó como #Falso. La imagen fue creada con inteligencia artificial.


Por si tienes poco tiempo:

  • Circula en redes sociales una imagen donde un hombre lleva a 5 infantes con él, caminando por los escombros de un edificio.
  • Las publicaciones implican que lo mostrado es consecuencia de un bombardeo israelí en Gaza.
  • Pero esta foto es #Falsa, ya que fue creada con inteligencia artificial.

Por Fast Check CL

Circula en redes sociales una imagen (1,2,3,4) donde se observa a un hombre cargar con 4 infantes y con otro tomado de la mano, rodeados de los escombros de una edificación destruida. Las publicaciones que acompañan esta foto dan a entender que se trataría del resultado de un bombardeo israelí en Gaza.

Esto ha circulado bajo el contexto del conflicto bélico entre Hamás e Israel, luego de que el grupo paramilitar palestino realizara un ataque contra el estado israelí el pasado 7 de octubre, dejando más de mil fallecidos. Ante esto, Israel respondió con brutales ataques hacia la Franja de Gaza, dejado hasta la fecha más de 10 mil muertos, según el Ministerio de Salud de Palestina.

Sin embargo, Fast Check CL constató que la foto compartida es #Falsa. En realidad, se trata de una imagen hecha con inteligencia artificial (IA), como evidencian errores anatómicos en las personas de la imagen.

Tiene características de una imagen hecha con inteligencia artificial

Para empezar, Fast Check CL realizó una búsqueda inversa de la imagen. Gracias a eso, se llegó a otras publicaciones que afirmaban que esta foto fue tomada en Gaza. Sin embargo, la búsqueda inversa no encontró la fuente original de la imagen.

Aún así, utilizando como guía las categorías de análisis señaladas en esta publicación, se pudo dar cuenta que la imagen posee incongruencias que señalarían que fue creada con inteligencia artificial.

1) Rostro

Imagen 1
Imagen 2
Imagen 3
Imagen 4

En la imagen 1, además de no poseer ojos y en su lugar verse solo orificios oscuros, se puede observar como su cara se extiende hacia su derecha.

En la imagen 2, se puede observar una forma irregular en las mejillas del niño. La nariz parece no tener orificios y, nuevamente, los ojos no se observan. Además, no se ven sus orejas a pesar de tener el cabello corto.

En la imagen 3, ocurre lo mismo con los ojos del niño, aunque esta vez su ojo derecho está deformado y parece una mancha negra. Tampoco se observan orejas.

En la imagen 4, la niña posee pequeñas irregularidades en sus ojos, además de nuevamente no mostrar orejas.

2) Corporalidad

Imagen 5
Imagen 6

En la imagen 5, se puede observar que los pies del niño se funden en el entorno. No tienen una forma definida. Además, su pie derecho se ve mucho más grande que el izquierdo.

En la imagen 6, se ve que el tamaño de las manos y los brazos del adulto parecen ser distintos. De hecho, su brazo derecho parece ser mucho más corto que el izquierdo. Por otro lado, el brazo del niño al cual llevan tomado de la mano está deformado, o termina inmediatamente después del codo.

Imagen 7
Imagen 8

En la imagen 7, se ve una masa corporal sin forma detrás de la pierna. Además, el muslo de la pierna se deforma antes de desaparecer detrás de lo que parece ser el brazo del adulto.

En la imagen 8, el pie de la izquierda parece tener más de 5 dedos, solo distinguiéndose el pulgar. Mientras tanto, el pie del bebe solo tiene 3 dedos.

Imagen 9
Imagen 10

En la imagen 9, ambos pies no están definidos o carecen de forma. No es posible ver la cantidad de dedos que tienen los pies. Además, la parte trasera de la sandalia del pie derecho se funde en la tierra. Ambos calzados tienen un diseño distinto.

En la imagen 10, se ve que las manos de la niña están deformadas. Ambas manos muestran lo que parece ser el pulgar en donde debería estar el dedo indice. Su mano derecha solo muestra dos dedos, mientras que los dedos de su mano izquierda no están bien definidos.

Imagen 11

En la imagen 11, el brazo señalado parece tener una deformación. Nuevamente los dedos de la mano no están bien definidos, y algo parece extenderse desde la mano que está debajo del cuello del adulto.

3) Entorno

Imagen 12
Imagen 13

En las imágenes 12 y 13, se pueden ver figuras que parecen ser personas. Sin embargo, al realizar un acercamiento, se puede observar que carecen de las características físicas de un ser humano. En la imagen 12, la persona no tiene brazos, mientras que en la imagen 13 ni siquiera se distinguen las extremidades de las figuras, deformándose con el edificio.

Herramientas de detección la revelan como “generada con IA”

Por otro lado, al pasar la imagen por la herramienta de detección de IA «HIVE Moderation», da como resultado que la imagen tiene un 100% de probabilidades de haber sido generada por IA.

Uso de la herramienta «HIVE Moderation» en Facebook

Igualmente, al pasar la imagen por la herramienta de detección «AI or Not», la califica como «Probablemente es IA».

Uso de la herramienta «Ai or Not» en imagen

Conclusión

Fast Check CL califica el contenido viral como #Falso. La imagen fue creada con inteligencia artificial. Esto se puede observar en las deformaciones que presentan los niños y el adulto, sobre todo en los pies y las manos.

Fast Check CL es un medio de comunicación, que depende de sus suscriptores para financiar el equipo de trabajo que hizo este artículo. Sin ti este proyecto finalizará en 2025. Puedes ser suscriptor/a y ayudarnos a combatir la desinformación en Chile por solo 1.500 al mes. 

Te puede interesar:

“Alberto Larraín sobre José Antonio Kast: ‘Si es elegido presidente, personas como yo tendremos que vivir escondidas'”: #Falso

Se viralizó una supuesta portada de BioBioChile que atribuía a Alberto Larraín una frase contra José Antonio Kast. Sin embargo, Fast Check CL califica esto como #Falso. No existe registro alguno del artículo en el sitio del medio ni en otras plataformas, y tanto el director de BioBioChile como el propio Alberto Larraín confirmaron que nunca se publicó ni emitió dicho contenido.

Cementerio de La Serena: auditoría detectó que 53 cadáveres fueron depositados en nicho usado como depósito común

Una auditoría interna determinó que 53 cuerpos fueron trasladados al osario N.º 99 del Cementerio de Las Compañías en La Serena, utilizado como depósito común, y que existen inconsistencias en los registros y en la trazabilidad de exhumaciones. El hallazgo se suma a la investigación que lidera el Ministerio Público por presunta inhumación ilegal en ese recinto. El informe también estableció que tanto el Cementerio de Las Compañías como el de La Antena operaron durante años sin resolución sanitaria y presentan deficiencias en sus condiciones laborales y sanitarias, las que, según la corporación municipal que los administra, actualmente se encuentran en proceso de regularización y mejora.

Audio de Jeannette Jara diciendo: “A mí no me importa la gente, yo seré siempre fiel al partido (…) tenemos que lograr derrotar al neoliberalismo”: #Falso

Durante el pasado fin de semana se viralizó masivamente un supuesto audio de Jeannette Jara diciendo que la gente es tonta, que no le importa y que si es necesario mentir para mantener el comunismo en Sudamérica, ‘lo hará de nuevo’. El audio también fue compartido por un excandidato a concejal por el Partido Republicano. Sin embargo, este es #Falso. El audio se generó con inteligencia artificial y fue desmentido tanto por el comando de Jeannette Jara como por la propia candidata.

Últimos chequeos:

La escritora Isabel Allende le entregó su apoyo a José Antonio Kast: “Es un hombre honorable”: #Engañoso

Se viralizó un video de la escritora Isabel Allende en el que afirma que José Antonio Kast es un «hombre honorable» y que, según usuarios, sería una muestra de apoyo a su candidatura. Fast Check calificó el contenido como #Engañoso, ya que corresponde a una entrevista de 2022 en la que efectivamente se refiere de ese modo a Kast, pero en ningún momento expresó respaldo a su candidatura. De hecho, en esa elección apoyó públicamente a Gabriel Boric. Además, mediante un video la escritora desmintió la información, aclarando que sus dichos fueron sacados de contexto y que no apoya al candidato republicano.

“Academicista” y “elitista”: la inevitable agonía de Evópoli que activó una guerra interna entre sus generaciones

Evópoli, tras quedar bajo el umbral legal para mantener su existencia y activar el riesgo de disolución, enfrenta una crisis que desbordó lo electoral y detonó un conflicto abierto entre sus generaciones. Mientras la dirigencia histórica atribuye el fracaso a factores estratégicos y planea una apelación ante el Tricel, el estamento juvenil acusa una conducción «desconectada» y propone una reestructuración, evidenciando una fractura interna que ya tensiona la definición del rumbo político y orgánico del partido.

Audio de Jeannette Jara diciendo: “A mí no me importa la gente, yo seré siempre fiel al partido (…) tenemos que lograr derrotar al neoliberalismo”: #Falso

Durante el pasado fin de semana se viralizó masivamente un supuesto audio de Jeannette Jara diciendo que la gente es tonta, que no le importa y que si es necesario mentir para mantener el comunismo en Sudamérica, ‘lo hará de nuevo’. El audio también fue compartido por un excandidato a concejal por el Partido Republicano. Sin embargo, este es #Falso. El audio se generó con inteligencia artificial y fue desmentido tanto por el comando de Jeannette Jara como por la propia candidata.