Editorial: La habitualidad de la desinformación generada con I.A.

Detrás de Grok, la inteligencia artificial de X, existe un ánimo de entregar una herramienta sin muchos límites o bordes éticos, donde una persona con tan solo escribir un prompt de cuatro palabras puede generar imágenes muy fieles, pero inexistentes.

En estos días, la empresa X, liberó de pago su aplicación Grok, un chat similar a Chat GPT (Microsoft) o Gemini (Google), cuya función es ser un “asistente humorístico de IA para X”. Esto que parece divertido es, en realidad, una declaración política/comercial del dueño de la plataforma, Elon Musk, para competir contra otras grandes tecnológicas, que desarrollaron asistentes de I.A., destacando un aspecto diferenciador con su competencia: el humor e ingenio. Pero, ¿puede colarse la desinformación generada por I.A. generativa?

Detrás de esto existe un ánimo de entregar una herramienta sin muchos límites o bordes éticos, donde una persona con tan solo escribir un prompt de cuatro palabras como “Boric y Maduro abrazados”, genera una imagen muy fiel, casi perfecta, de ambos mandatarios entrelazados y demostrando un cariño, que en la realidad factual, es inexistente. Las imágenes que Grok genera son completamente falsas, creadas con inteligencia artificial generativa. Sin embargo, ante los ojos de cualquier persona que no sepa un poco más sobre tecnología, o no alcance a leer la pequeña marca de agua que se autogenera en el costado derecho de la imagen, será muy difícil de cuestionar, de alertar, creando de este modo un contenido de desinformación, amparado en la libertad, el humor y el ingenio.

Imagen creada en Grok con el prompt: “maduro y boric abrazados”

No se puede realizar el mismo ejercicio en los chats de la competencia, ya que se bloquean los contenidos ofensivos o que puedan promover desinformación. Tienen mayores capas de control para evitar un uso malintencionado o poco ético de estas herramientas. Esto lo sabe muy bien Elon Musk y por eso libera esta restricción y entrega el límite o autocontrol a las personas. ¿Qué podría salir mal?

El problema de la I.A. generativa es que ya está aquí, es parte de nuestra convivencia más habitual, pero parece no preocuparnos lo suficiente, tal como tampoco nos importa mucho la crisis climática, la crisis económica, la crisis de confianza y, en realidad, lo que hacemos es tratar de convivir mitigando efectos para todas estas crisis, incluyendo esta crisis de la desinformación. Cuando una crisis se instala en la cotidianeidad, pareciera que somos parte de ella desde su inicio y ya no sabemos más distinguir cuando empezó y tampoco cuando terminará.

La desinformación generada por I.A. puede tomar muchas formas. La más reconocible es la que se produce en campañas políticas y en periodos electorales. Sin embargo, hay formas de desinformación más habituales (cotidianas) y mucho más dañinas: Remedios para curar la diabetes en redes sociales, que promociona el doctor Ugarte, o anuncios del periodista Daniel Matamala para promocionar la inversión en criptomonedas.

Estos ejemplos existen en la realidad, pero no son reales. ¿Me explico? También hay estudiantes que crean imágenes con I.A. de sus compañeras desnudas y las difunden por WhatsApp, como lo que hicieron los chicos del Saint George. O la creación de fotos de Pinochet y Hitler con políticos actuales, divirtiéndose, de la mano o charlando con gran afán, creadas con Grok, el divertido asistente de X. 

¿Es negativo el desarrollo de la IA en la vida pública y privada de las personas? No. El desarrollo tecnológico nos traerá beneficios, sin lugar a dudas, tal y como el Internet y las redes sociales lo hicieron. Pero, esto no significa que debamos mirar hacia el lado cada vez que enfrentamos el lado b de estos avances. La desinformación, en la era de la Inteligencia Artificial necesita de ciudadanos más críticos y con menores brechas tecnológicas para no ser timados por quienes promueven el contenido falso.

En este sentido, en Fast Check CL, creemos que como ciudadanos debemos tener en cuenta al menos tres compromisos fundamentales para mitigar los efectos que puede producir la desinformación potenciada con I.A. en la esfera pública: Cuida tus fuentes, Comparte solo si generas valor, Exige AMI.

Cuando hablamos de cuidar las fuentes hacemos una defensa del periodismo basado en evidencia con contenido de interés público. Hoy cualquiera puede crear contenidos, por ende, pareciera que el periodismo ya no es relevante ni necesario, o así nos quieren hacer creer algunos. Esto no es cierto. En un mundo donde existen muchas fuentes de información de baja calidad, lo mejor es cuidar las buenas fuentes que tengamos que profesionalmente generan contenido de alta calidad. Ayudemos a sostener un ecosistema con buenas fuentes para que la información que consumamos sea la mejor. 

¿La imagen creada con I.A. que buscas compartir con alguien más le genera valor? Si no lo genera ¿por qué lo compartirías? Es importante que cuando estemos frente a la disyuntiva de compartir contenido, pensemos en qué valor le estoy dando al otro al compartirlo. Si después de reflexionar, concluyo que no aporto lo suficiente, es mejor no crear/compartir ese contenido. Tus amigos no te necesitan para consumir esos contenidos, seguramente ellos ya los buscan por sí solos, o les llegan a través de otras plataformas.

Un concepto poco conocido, pero que nació hace bastante tiempo atrás, Alfabetización Mediática Informacional (AMI) es un conjunto de habilidades que debe desarrollar un individuo para 1) reconocer sus necesidades informativas; 2) localizar y evaluar la calidad de la información; 3) almacenar y recuperar información; 4) hacer un uso efectivo y ético de la información; 5) aplicar la información a la creación y transmisión de conocimiento. ¿Sabes si en el colegio de tu hijo/a hacen algo de esto? ¿Tuviste algo de esto en el tuyo? Si la respuesta es NO, empieza a exigirlo. Es la única forma de que en el largo plazo los que son hoy estudiantes, no sean atrapados por desinformación y tengan mejores herramientas que nosotros para combatirla.

Fast Check CL es un medio de comunicación, que depende de sus suscriptores para financiar el equipo de trabajo que hizo este artículo. Sin ti este proyecto finalizará en 2025. Puedes ser suscriptor/a y ayudarnos a combatir la desinformación en Chile por solo 1.500 al mes. 

Te puede interesar:

Vuelve la pesadilla al Partido Radical: Servel rechazó cambio estatutario y persiste el riesgo de que los bienes pasen a la Gran Logia

El Servel rechazó la modificación de estatutos aprobada por el Partido Radical en un plebiscito interno, al considerar que el nuevo mecanismo propuesto para administrar sus bienes en caso de disolución contraviene la Ley N.º 18.603. Con ello, se mantiene vigente el artículo que establece que el patrimonio de la colectividad debe ser transferido al Club de la República, reabriendo el episodio de que estos activos terminen bajo la Gran Logia de Chile. El PR ya ingresó un reclamo ante el Tricel.

(Imagen) “Eduardo Frei sorprende con insólita frase: ‘Con el capitalismo se construyen rascacielos, con el comunismo se construyen rasca piojos”: #Falso

Se difunde en redes una portada de un medio de comunicación, la cual cita una supuesta afirmación del expresidente Eduardo Frei: «Con el capitalismo se construyen rascacielos, con el comunismo se construyen rasca piojos». Fast Check califica el contenido como #Falso. La declaración no posee cobertura mediática y desde el equipo de Frei la desmintieron.

Limusina

SLEP Atacama ha pagado más de $4.890 millones a empresas vinculadas al organizador de fiesta con limusina

Tras la celebración del quinto aniversario del Servicio Local de Educación Pública (SLEP) de Atacama, difundida a través de un video que generó controversia, se reactivaron los cuestionamientos sobre los vínculos contractuales del servicio con empresas asociadas a Edward Sierra Veragua, fundador de la sociedad que organizó el evento. En este contexto, Fast Check CL revisó los registros de Mercado Público y constató que otras tres empresas relacionadas con Sierra —una de ellas constituida junto a su hermana— han concentrado montos millonarios adjudicados por organismos del Estado, principalmente mediante contratos con el SLEP de Atacama.

Muñeca Bielorrusa

¿Qué es la “Muñeca Bielorrusa”?: el caso que remece al Poder Judicial suma tres nuevos formalizados

Una serie de formalizaciones, investigaciones administrativas y fallos judiciales han dado forma al denominado caso «Muñeca Bielorrusa», una causa penal que indaga un presunto esquema de tráfico de influencias y lavado de activos asociado al litigio entre el consorcio bielorruso Belaz Movitec y Codelco. Pero, ¿qué es exactamente el caso «Muñeca Bielorrusa» y cómo se originó esta investigación?

Últimos chequeos:

(Video) “Nicolás Maduro en sus 30 minutos al aire libre diarios en la cárcel de Brooklyn, Nueva York”: #Falso

Durante este fin de semana, se viralizó un video de Nicolás Maduro caminando por lo que aparentemente sería uno de los espacios recreacionales para los reclusos de la cárcel en la que se encuentra. Sin embargo, Fast Check califica esto como #Falso. El video se generó con inteligencia artificial, sumado a que dicho centro penitenciario no presenta espacios al aire libre como el que se ve en el video.

(Video) “Robert de Niro en los Globos de Oro: ‘que se joda Trump'”: #Engañoso

Tras la realización de la ceremonia de los Globos de Oro 2026 de este pasado domingo 11 de enero se viralizó un video del actor Robert De Niro en pleno escenario diciendo «que se joda Trump». Fast Check calificó esto como #Engañoso, ya que el registro data de 2018 y ni siquiera fue en los Globos de Oro, sino en la ceremonia de los Premios Tony.

“Diputado Libertario confesó el verdadero motivo de los incendios en la Patagonia”: #Falso

Se comparte en la red social X el tuit de un supuesto diputado argentino llamado Matías Báez, afirmando que los incendios en la Patagonia son controlados y su objetivo es vender las tierras al estado de Israel. Fast Check califica esta información como #Falsa, la Cámara de Diputados de la Provincia de Buenos Aires no registra el nombre del parlamentario difundido, además, su foto de perfil corresponde a un creador de contenido estadounidense.

Caso Gatica: ¿Influyó la Ley Naín-Retamal en absolver a Claudio Crespo?

La ley –promulgada por el gobierno de Gabriel Boric– provocó un quiebre en el oficialismo tras aparecer en el veredicto que absolvió al exteniente coronel Claudio Crespo, acusado de dejar ciego a Gustavo Gatica. No obstante, expertos en Derecho Penal sostienen que su verdadero efecto en el dictamen es menor a lo que se ha hecho parecer en el discurso público.

⁠Hitos duplicados e inauguraciones repetidas: los errores detectados en la lista de más de “1.000 avances” que presentó el gobierno

En un intento por destacar la gestión realizada durante estos casi cuatro años de mandato, el gobierno presentó una lista con los «más de 1.000 avances» atribuidos a la administración del presidente Gabriel Boric. Fast Check detectó múltiples casos en los que estos avances fueron incluidos más de una vez e incluso copiados de forma explícita. Desde Segegob explicaron que el «límite de tiempo de ediciones y actualizaciones, podrían seguir realizándose hasta el fin de la actual administración».

Limusina

SLEP Atacama ha pagado más de $4.890 millones a empresas vinculadas al organizador de fiesta con limusina

Tras la celebración del quinto aniversario del Servicio Local de Educación Pública (SLEP) de Atacama, difundida a través de un video que generó controversia, se reactivaron los cuestionamientos sobre los vínculos contractuales del servicio con empresas asociadas a Edward Sierra Veragua, fundador de la sociedad que organizó el evento. En este contexto, Fast Check CL revisó los registros de Mercado Público y constató que otras tres empresas relacionadas con Sierra —una de ellas constituida junto a su hermana— han concentrado montos millonarios adjudicados por organismos del Estado, principalmente mediante contratos con el SLEP de Atacama.