(Video) “En Copiapó una ejecución a plena luz del día”: #Falso

Se ha hecho viral, un video que muestra el momento en que un sujeto es atropellado por un conductor, según los usuarios este hecho ocurrió en Copiapó. Sin embargo, Fast Check califica esta publicación como falsa, ya que el registro fue grabado en Brasil durante el año 2023.

Se ha hecho viral, un video que muestra el momento en que un sujeto es atropellado por un conductor, según los usuarios este hecho ocurrió en Copiapó. Sin embargo, Fast Check califica esta publicación como falsa, ya que el registro fue grabado en Brasil durante el año 2023.

  • Se ha viralizado por redes sociales un video en el cual atropellan y matan a una persona a plena luz del día. En la descripción aseguran que el registro ocurrió en Copiapó, Chile.
  • Fast Check califica esta publicación como falsa, ya que se encontraron resultados de que el hecho sucedió en Manoel Vitorino, Brasil.

Por Fast Check CL

Circula por redes sociales, un video que muestra a un conductor atropellando a una persona. Luego el mismo conductor se baja del vehículo para dispararle en la cabeza a la víctima. «En Copiapó, una ejecución a plena luz del día», se dice en la descripción que acompaña la publicación viral.

Sin embargo, esto es falso, ya que el video no ocurrió en Copiapó, si no en Brasil en noviembre del año 2023.

Captura del video viralizado.

El video ocurrió en Brasil durante 2023

Lo primero que realizó Fast Check fue una búsqueda inversa a través de fotogramas del video. Con esto se encontraron varias notas (1,2,3) que comparten el mismo registro y aseguran que el hecho no sucedió en Copiapó sino en Brasil.

De acuerdo a Última Hora Venezuela y Publimetro, el crimen sucedió el 17 de noviembre de 2023 en Manoel Vitorino, en el suroeste de Bahía (Brasil). Además agregan que la víctima fue identificada como José Marculino de Souza y el acusado fue detenido por agentes de la 9ª Coorpin el jueves 21 de marzo de 2024.

De igual manera, Fast Check hizo una búsqueda con palabras claves en portugués, con lo que pudo encontrar medios brasileños que comparten capturas del video viralizado y coinciden con la información que entregaron los medios antes mencionados (1,2,3).

«El crimen ocurrió el 17 de noviembre de 2023, alrededor de las 17.30 horas, en la Rua Fidelis Fernandes, en el centro de la ciudad. Según las investigaciones, el sospechoso, identificado como NSS, inicialmente atropelló a la víctima con un vehículo», detalla Livramento Hoje.

«Posteriormente, bajó del auto y disparó contra José Marculino de Souza, quien aún se encontraba tendido en la calle. El autor del crimen se dio a la fuga hacia la zona rural de Manoel Vitorino, siendo localizado luego de una intensa búsqueda realizada por investigadores del PCBA», agrega.

Conclusión

Fast Check CL califica esta publicación como falsa. El video que circula en redes sociales no ocurrió en Copiapó, en realidad fue grabado el 17 de noviembre de 2023 en Manuel Vitorino, suroeste de Bahía, Brasil.

Fast Check CL es un medio de comunicación, que depende de sus suscriptores para financiar el equipo de trabajo que hizo este artículo. Sin ti este proyecto finalizará en 2025. Puedes ser suscriptor/a y ayudarnos a combatir la desinformación en Chile por solo 1.500 al mes. 

Te puede interesar:

(Video) “Misiles balísticos iraníes destruyendo Tel Aviv”: #Falso

Circula en redes un presunto registro que mostraría un bombardeo a la ciudad de Tel Aviv, Israel, por parte de las fuerzas iraníes. Fast Check califica este contenido como #Falso. El video muestra fuertes indicios de haber sido generado con inteligencia artificial, con hasta 99,9% de certeza en algunos detectores. Además, no posee cobertura mediática.

(Video) “Dubái sufre un ataque” de aviones chinos: #Falso

Se difunde en redes sociales que aviones militares chinos habrían bombardeado la ciudad de Dubái, en Emiratos Árabes Unidos, en auxilio de las fuerza revolucionarias de Irán. Fast Check califica esto como #Falso. El hecho no posee cobertura oficial ni mediática y el video cuenta con inconsistencias visuales que permiten concluir que se generó con inteligencia artificial.

(Video) “Misil impacta el Burj Khalifa en Dubái”: #Falso

Se viralizó con millones de visualizaciones un video del Burj Khalifa —el edificio más alto del mundo ubicado en Dubái— siendo impactado por un misil. Fast Check califica esto como #Falso, pues no hay reportes oficiales que lo confirmen y el registro presenta inconsistencias visuales que indican que estaría generado con inteligencia artificial.

(Imagen) “Libros de texto del Gobierno de México incluyen contenidos que normalizan a los llamados ‘therians'”: #Engañoso

El diputado Johannes Kaiser y usuarios en redes sociales divulgaron que hay libros escolares en México que «normalizan» a los llamados «therians». Sin embargo, Fast Check califica esto como #Engañoso, pues, si bien existe un libro con ilustraciones de personas con máscaras de animales, no hay mención explícita a los therians. Desde la Embajada de México en Chile ratificaron esta información.

“La Contraloría ha solicitado detener las impresiones de la imagen presidencial por modificar símbolos oficiales”: #Falso

Tras una denuncia presentada ante Contraloría por una supuesta vulneración a la ley en el uso del escudo en la banda presidencial de Kast, se difundió en X que el ente contralor habría solicitado detener las impresiones de la fotografía oficial. Fast Check calificó esto como #Falso, ya que, si bien la denuncia fue ingresada, no se han emitido instrucciones de esa naturaleza.

Últimos chequeos:

“La Contraloría ha solicitado detener las impresiones de la imagen presidencial por modificar símbolos oficiales”: #Falso

Tras una denuncia presentada ante Contraloría por una supuesta vulneración a la ley en el uso del escudo en la banda presidencial de Kast, se difundió en X que el ente contralor habría solicitado detener las impresiones de la fotografía oficial. Fast Check calificó esto como #Falso, ya que, si bien la denuncia fue ingresada, no se han emitido instrucciones de esa naturaleza.

(Video) “Misiles balísticos iraníes destruyendo Tel Aviv”: #Falso

Circula en redes un presunto registro que mostraría un bombardeo a la ciudad de Tel Aviv, Israel, por parte de las fuerzas iraníes. Fast Check califica este contenido como #Falso. El video muestra fuertes indicios de haber sido generado con inteligencia artificial, con hasta 99,9% de certeza en algunos detectores. Además, no posee cobertura mediática.

(Video) “Dubái sufre un ataque” de aviones chinos: #Falso

Se difunde en redes sociales que aviones militares chinos habrían bombardeado la ciudad de Dubái, en Emiratos Árabes Unidos, en auxilio de las fuerza revolucionarias de Irán. Fast Check califica esto como #Falso. El hecho no posee cobertura oficial ni mediática y el video cuenta con inconsistencias visuales que permiten concluir que se generó con inteligencia artificial.

May Chomali dijo que “no se puede confiar en las vacunas como si fueran una bala de plata, también existe la oración y el poder de Dios para sanar”: #Falso

Se comparten en redes sociales dos frases atribuidas a la futura ministra de Salud, May Chomali, cuestionando el uso de las vacunas e incluso asegurando que «el poder de Dios» es suficiente para sanar. Fast Check califica el contenido como #Falso, ya que no hay registros de la médica dando tales opiniones y desde su equipo lo desmintieron.

(Video) “Misil impacta el Burj Khalifa en Dubái”: #Falso

Se viralizó con millones de visualizaciones un video del Burj Khalifa —el edificio más alto del mundo ubicado en Dubái— siendo impactado por un misil. Fast Check califica esto como #Falso, pues no hay reportes oficiales que lo confirmen y el registro presenta inconsistencias visuales que indican que estaría generado con inteligencia artificial.

(Video) “Dubái sufre un ataque” de aviones chinos: #Falso

Se difunde en redes sociales que aviones militares chinos habrían bombardeado la ciudad de Dubái, en Emiratos Árabes Unidos, en auxilio de las fuerza revolucionarias de Irán. Fast Check califica esto como #Falso. El hecho no posee cobertura oficial ni mediática y el video cuenta con inconsistencias visuales que permiten concluir que se generó con inteligencia artificial.

Coyhaique

“Necesito que paguen la cuota”: chats revelan solicitudes de dinero del alcalde Carlos Gatica a funcionarios de Coyhaique

La exadministradora municipal de Coyhaique, Gabriela Retamal, denunció ante la justicia laboral que su despido estuvo marcado por diversas irregularidades al interior del municipio, entre ellas un supuesto sistema de “aportes monetarios” exigidos desde la alcaldía. El alcalde Carlos Gatica rechazó públicamente la acusación y aseguró que los hechos “no se condicen en absoluto con la realidad”. Sin embargo, Fast Check accedió a capturas de WhatsApp en las que se observan solicitudes de dinero realizadas por el propio jefe comunal y por su secretaria a funcionarios municipales.

(Video) “Misiles balísticos iraníes destruyendo Tel Aviv”: #Falso

Circula en redes un presunto registro que mostraría un bombardeo a la ciudad de Tel Aviv, Israel, por parte de las fuerzas iraníes. Fast Check califica este contenido como #Falso. El video muestra fuertes indicios de haber sido generado con inteligencia artificial, con hasta 99,9% de certeza en algunos detectores. Además, no posee cobertura mediática.