En redes sociales circulan videos en los que supuestas periodistas informan sobre guerras, catástrofes o delitos que nunca ocurrieron. En realidad, son contenidos creados con inteligencia artificial. Según expertos consultados, …
En redes sociales circulan videos en los que supuestas periodistas informan sobre guerras, catástrofes o delitos que nunca ocurrieron. En realidad, son contenidos creados con inteligencia artificial. Según expertos consultados, esta técnica aprovecha el papel social del periodismo para dar verosimilitud a falsos relatos, lo que puede erosionar la confianza en los medios y las instituciones.
«México ha declarado la guerra a Estados Unidos», dice una supuesta periodista en un telenoticiero inexistente. Ni la mujer ni la noticia son reales: el video fue generado con inteligencia artificial, como indica su etiqueta en TikTok.
Es solo uno de los muchos ejemplos de contenidos creados con IA que muestran a supuestos periodistas (en su mayoría mujeres) narrando situaciones inventadas.

Un ejemplo son los videos que muestran escenas de periodistas transmitiendo en directo desde socavones por los que caen personas y vehículos. Estos contenidos ya han sido desmentidos por Maldita.es.
También están los que alertan de situaciones más graves, como guerras, fenómenos naturales o supuestos homicidios.
Desinformar daña
Aunque cuentan con etiquetas en TikTok que indican su origen sintético, es fácil que estos videos circulen fuera de su contexto original y que esa etiqueta ya no sea visible.
Todo esto puede provocar desinformación, generar falsos relatos y alterar la percepción sobre personajes y hechos de actualidad o históricos.

Expertos explican a Maldita.es que estos contenidos aprovechan la credibilidad asociada al periodismo para difundir mensajes convincentes pero falsos.
Países como China y Venezuela, así como actores no estatales como el Daesh, han utilizado este tipo de videos con fines propagandísticos.
«A diferencia de otras figuras, los periodistas tienen un peso considerable porque son vistos como aliados y voces del público y, en cierto sentido, se convierten en las marionetas perfectas en manos de esos actores», señala Viola Keta, periodista experta en desinformación.

Raúl Magallón, profesor del Departamento de Comunicación de la Universidad Carlos III, sostiene que «su función es generar confusión en escenarios donde la información internacional hace que no conozcamos las fuentes de las que provienen este tipo de contenidos».
Como explica Keta, la consecuencia es una erosión de la confianza en el periodismo, también en general.
«Esta erosión crea un clima de sospecha y marca una regresión social, ya que intensifica la polarización y la desconfianza hacia las instituciones, no sólo hacia los medios de comunicación».
Un buen uso para la IA
Contrario al uso que se le da para desinformar, contenidos generados con IA se pueden usar para concienciar sobre problemas reales en el mundo.
En el mundo existen guerras o catástrofes reales en lugares de difícil acceso por lo que existen iniciativas para visibilizarlos ante las audiencias.
Es lo que hacen proyectos como AI Witness TV, que busca denunciar la dificultad que tienen los periodistas para entrar en Gaza, por ejemplo.

«Un experimento de IA que muestra cómo podría ser uno de sus reportajes. Los acontecimientos descritos son reales, pero nuestro reportero es generado con IA», señala la descripción del video.
Esta es una republicación del medio español Maldita.es, publicada el 22 de octubre de 2025. Maldita.es y Agencia Ocote forman parte de la alianza de medios verificadores LatamChequea.





