top of page

Desinformación, IA y libertad: por qué necesitamos volver a pensar

  • Foto del escritor: Pilar Paredes
    Pilar Paredes
  • hace 53 minutos
  • 9 Min. de lectura
Un humanoide observando a un humano que contempla un paisaje
La desinformación y la IA frente al pensamiento crítico

Hace unos días tuve la oportunidad de participar en Palermo como experta invitada en el Expert Forum on Digital Media Literacy, Emotional Resilience and the Impact of AI, dentro del proyecto europeo EMERGE: Enhancing Media and Emotional Resilience to Guard Democracy in Europe, cofinanciado por la Unión Europea y coordinado por el Centro per lo Sviluppo Creativo Danilo Dolci.


El encuentro reunió a profesionales, investigadores y organizaciones europeas para reflexionar sobre un reto cada vez mÔs urgente: cómo afectan la desinformación, las fake news, la inteligencia artificial y el entorno digital a la ciudadanía, especialmente a los jóvenes.


De allí salí con una idea muy clara: el problema de la desinformación no se soluciona solo enseñando a distinguir lo verdadero de lo falso. Es algo mucho mÔs profundo. Exige pensamiento crítico, educación emocional, alfabetización en IA y una cultura democrÔtica mÔs sólida.


Del concepto de fake news al desorden informativo


En el informe del Consejo de Europa elaborado por Claire Wardle y Hossein Derakhshan, los autores rechazan el término fake news y prefieren hablar de information disorder, es decir, desorden o trastorno de la información. Para ello utilizan tres categorías: misinformation, disinformation y malinformation.


La primera, misinformation, hace referencia a información falsa que se transmite sin mala intención. Puede ser compartir rumores, noticias no corroboradas o datos incorrectos creyendo que son ciertos.


La segunda, disinformation, hace referencia a información falsa creada o difundida deliberadamente para causar daño a un grupo social, una persona, una organización o un país. Aquí entran contenidos falsificados, manipulados o diseñados para engañar.


La tercera, malinformation, se refiere a información real y verdadera que se utiliza para infligir daño. Un ejemplo puede ser la difusión de contenido privado para deslegitimar a una persona o a un grupo con el fin de perjudicarlo.


La base de este desorden informativo que circula por canales digitales —redes como X, TikTok, Instagram o YouTube— tiene algo en comĆŗn: la intención humana de manipular emocionalmente a alguien.


Y eso estÔ llevando a que se pierda la confianza en los medios, en las instituciones y, aún mÔs allÔ, a que muchas personas no sepan distinguir qué es real y qué no.


La OCDE advierte de que la desinformación puede poner en duda la evidencia factual, dificultar la acción pública y debilitar la confianza en las instituciones democrÔticas.


Cómo funciona la manipulación emocional


El mecanismo de esta manipulación es sencillo: al apelar a las emociones con contenido fÔcil, que nos puede indignar, entristecer o asustar, se consigue que demos like, compartamos o enviemos ese contenido a una persona de nuestro círculo afín a nuestras creencias.


El algoritmo, que basa su funcionamiento en señales como tiempo de visualización, likes, comentarios, veces compartidas o interacciones similares, interpreta que ese contenido es interesante para nosotros y nos proporciona mÔs contenido parecido. TikTok explica que las interacciones del usuario actúan como señales para que sus sistemas de recomendación predigan qué contenido puede interesarle mÔs.


¿No has experimentado cómo TikTok te proporciona contenido similar cuando le das like a un vídeo o lo compartes?

Así se establece el proceso de divulgación de contenido que puede ser falso. El algoritmo no entiende el contenido como lo entendemos los humanos. Analiza relaciones, señales y comportamientos. Pero las personas que difunden determinados contenidos con un objetivo concreto sí saben que estÔs reaccionando.


De esta manera se forman las llamadas cƔmaras de eco, que se definen como entornos digitales donde los usuarios quedan confinados en burbujas que refuerzan sus creencias preexistentes.


Los algoritmos no crean directamente las cÔmaras de eco, que ya existen socialmente en grupos de personas con creencias similares, pero sí pueden amplificarlas al proporcionar contenidos parecidos. De este modo se refuerzan las creencias y esto puede conducir a otra consecuencia: la polarización.


En mi opinión, no debemos echar la culpa únicamente a las redes sociales de este problema, sino al uso que determinados individuos, grupos, empresas o actores políticos hacen de ellas.


Plataformas como X o Facebook pueden favorecer la formación de cÔmaras de eco porque buena parte de sus dinÔmicas se basan en la atención y la interacción. Otras plataformas, como YouTube, ademÔs de métricas de uso, incorporan señales de satisfacción para intentar ajustar mejor las recomendaciones. YouTube explica que su sistema busca ayudar a cada usuario a encontrar vídeos que quiera ver y maximizar su satisfacción a largo plazo.


La entrada de la IA generativa


Gracias a ella tenemos contenido sintƩtico, voces clonadas, imƔgenes falsas y deepfakes con una facilidad cada vez mayor para ser elaborados y distribuidos.


La capacidad para crear mentiras convincentes es ahora mucho mÔs accesible, lo que hace mÔs fÔcil la manipulación. UNESCO ha señalado que la alfabetización mediÔtica debe responder a los nuevos retos de la IA generativa, entre ellos el contenido sintético, la pérdida de fiabilidad de las fuentes y los riesgos para la confianza informativa.


La mayoría de las personas no son plenamente conscientes de cómo funcionan estos mecanismos de manipulación.


Aunque estas técnicas de seducción y persuasión no son nuevas. Ya existían en el siglo V a. C. cuando los sofistas de Atenas, enseñaban a los hombres poderosos a conseguir sus objetivos mediante el uso de la retórica.


La palabra desinformación procede del término ruso dezinformatsiya. Britannica recoge que el gobierno ruso empezó a usar la desinformación como tÔctica política desde la creación, en 1923, de una oficina especial dedicada a difundir propaganda falsa.


En política existe una teoría denominada Ventana de Overton, que representa las ideas y políticas aceptables para el público en un momento dado. Define qué discursos son considerados normales o extremistas y limita lo que los políticos pueden proponer sin perder apoyo popular.


Esta ventana se desplaza: hablar del voto femenino en el siglo XIX era impensable, igual que el matrimonio entre personas del mismo sexo hace no tanto. El proceso de la Ventana de Overton puede ir de lo impensable a lo radical, de lo radical a lo aceptable, de lo aceptable a lo sensato, de lo sensato a lo popular y de ahƭ a la polƭtica, cuando acaba convirtiƩndose en norma o ley.


El Mackinac Center, asociado al origen del concepto, lo define como el rango de polĆ­ticas que el pĆŗblico acepta como legĆ­timas en un momento determinado.


La facilidad con la que las redes sociales, gracias a su funcionamiento, pueden contribuir a divulgar desinformación y manipular a los seres humanos debe ser conocida por los ciudadanos.

En este caso hablamos de alfabetización digital: comprender cuÔles son las intenciones de empresas, corporaciones o actores políticos, cómo funcionan los algoritmos y cómo nos afectan emocionalmente determinados contenidos.


¿Por qué es importante tener conciencia de todo esto?


La respuesta es sencilla: para seguir siendo libres.


El uso de la IA generativa puede contribuir a lo que se denomina deuda cognitiva. Si nos acostumbramos a utilizar herramientas como ChatGPT para elaborar nuestros informes, trabajos o razonamientos, corremos el riesgo de dejar de ejercitar determinadas capacidades mentales.


Ya existen advertencias sobre el impacto del entorno digital en la atención, el bienestar emocional y la salud mental de niños y adolescentes.


UNICEF ha señalado que experiencias dañinas online, como el abuso, el acoso o la exposición a contenidos perjudiciales, se asocian con peores indicadores de bienestar emocional.


Si aƱadimos el uso intensivo de IA generativa, podemos acabar delegando parte de nuestra capacidad de pensar por nosotros mismos, volviƩndonos mƔs influenciables y manipulables por agentes con intenciones deshonestas.


Hace unos aƱos, alguien me preguntó por quĆ© era necesario memorizar tantos datos ā€œinĆŗtilesā€ en la escuela. Para quĆ© servĆ­an.


En aquel momento le respondí que si no usas un músculo, este deja de funcionar. Ahora sé, ademÔs, que el cerebro tiene capacidad de generar nuevas conexiones neuronales y que nuestro cuerpo y nuestras emociones forman parte de ese proceso de aprendizaje y respuesta.

Por lo tanto, renunciar al uso de nuestra capacidad cerebral para dejar que otros, o incluso una mƔquina, piensen por nosotros, afecta a nuestro propio albedrƭo.

Me refiero a la libertad de tener pensamiento propio, razonar por nosotros mismos y crear algo desde la nada: una capacidad profundamente humana.


Por eso es importante recuperar el pensamiento crítico y asumir la responsabilidad digital si queremos que en el futuro nuestros jóvenes decidan por sí mismos.


IA, Ʃtica y lƭmites humanos


AdemÔs, hay que añadir el límite ético que debemos poner al desarrollo de la inteligencia artificial por parte de las grandes tecnológicas. Sin una mirada sobre lo que es bueno o malo para el ser humano, la tecnología puede escaparse de nuestras manos.


La alfabetización digital no puede limitarse al uso de herramientas.


El propio Geoffrey Hinton, considerado uno de los padres de la inteligencia artificial y Premio Nobel de Física en 2024 junto a John Hopfield por sus contribuciones al aprendizaje automÔtico mediante redes neuronales, salió de Google en 2023 para poder hablar con mÔs libertad de los riesgos de la IA.


Entre sus preocupaciones figuran la generación de contenido falso, la desinformación, el impacto laboral y los riesgos de sistemas cada vez mÔs capaces.


Para Hinton, los riesgos de manipulación y división social estÔn relacionados también con las cÔmaras de eco, que al crear burbujas fomentan la polarización y la influencia política, así como con el uso de deepfakes para influir en la opinión pública y erosionar la democracia.


AdemÔs, sostiene que los modelos actuales estÔn mejorando su capacidad de engañar a los humanos para conseguir sus objetivos o evitar ser apagados. Llegar a un momento en que la IA pueda mejorarse y superarse a sí misma plantea preguntas que no son solo técnicas, sino profundamente filosóficas y políticas.


Ahora me pregunto: ¿una mÔquina artificial puede emular al ser humano?


Ya lo estÔ haciendo. Es en el momento del auge de los agentes de IA, que pueden trabajar de forma autónoma y realizar tareas mucho mÔs rÔpido que nosotros.


La pregunta serĆ” si una inteligencia artificial puede sustituir la capacidad humana de creatividad.


Parece que, de momento, no serÔ así. Aunque su capacidad de cómputo le permita crear determinados contenidos sintéticos, no tiene la capacidad humana de crear desde la experiencia vital, ni de sentir emociones: pintar un cuadro, improvisar una melodía al piano o emocionarse contemplando un paisaje.


Pensamiento crítico, educación emocional y responsabilidad digital


Decíamos que para evitar la desinformación y el impacto negativo de la IA en las nuevas generaciones es importante ejercer el pensamiento crítico, la educación emocional, la alfabetización en IA y una cultura democrÔtica mÔs sólida.


Controlar nuestras emociones sabiendo que el impulso de compartir un contenido de dudosa procedencia puede impactar negativamente en otras personas; reconocer esas mismas emociones; salir del contexto; mirar la realidad; estudiar y comparar fuentes; cuestionar la autoridad y, sobre todo, ver ejemplos en nuestras instituciones y organizaciones polƭticas, es la mejor manera de evitar la conformidad social y la pƩrdida de identidad individual.


Tres advertencias literarias para entender este momento


Llegamos a la conclusión de este artículo breve recordando tres grandes advertencias literarias del siglo XX.


1984, de George Orwell, nos mostró el peligro de un poder capaz de manipular la verdad, vigilar al ciudadano y reescribir la realidad.


Un mundo feliz, de Aldous Huxley, nos advirtió de una sociedad que no necesita prohibir la libertad si consigue sustituirla por comodidad, consumo y entretenimiento permanente.


Fahrenheit 451, de Ray Bradbury, nos recordó que una cultura puede perder su capacidad crítica no solo cuando se queman los libros, sino cuando la lectura, la memoria y el pensamiento profundo dejan de importar.


Las tres obras siguen siendo actuales porque apuntan a un mismo riesgo: una ciudadanía sin criterio, sin atención y sin relación honesta con la verdad se vuelve mucho mÔs fÔcil de manipular.


Recomiendo la lectura o relectura de estas estupendas novelas y observar cómo muchas de esas advertencias ya estÔn presentes para reflexionar sobre cómo debemos adaptarnos a este nuevo cambio de paradigma tecnológico.


Para finalizar, lo que muchos como yo pensamos, quienes hemos tenido el privilegio de asistir al nacimiento y evolución de determinados productos tecnológicos, resulta fundamental mantener la prudencia y recuperar la mirada filosófica del mundo: seguir dudando, preguntarnos el porqué y el para qué de las cosas, disfrutar del arte y de la vida fuera de la burbuja tecnológica.


Es nuestra misión y responsabilidad, como miembros de esa generación que conoció el uso analógico de las cosas, transmitir nuestro conocimiento del mundo y educar a los mÔs jóvenes enseñÔndoles a hacerse preguntas y llegar a sus propias conclusiones para descubrir la verdad.


Como diría Sócrates, el primer gran filósofo de la historia, que nada escribió:


ā€œUna vida sin examen no merece ser vividaā€.


Fuentes consultadas

  1. Wardle, C. & Derakhshan, H. Information Disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe, 2017.

  2. OECD. Facts Not Fakes: Tackling Disinformation, Strengthening Information Integrity, 2024.

  3. UNESCO. User Empowerment through Media and Information Literacy Responses to the Evolution of Generative Artificial Intelligence, 2024.

  4. TikTok. How TikTok recommends content.

  5. YouTube Help. How YouTube’s recommendation system works.

  6. UNICEF Innocenti. Childhood in a Digital World, 2025.

  7. Nobel Prize. The Nobel Prize in Physics 2024.

  8. The Guardian. Geoffrey Hinton quits Google and warns of AI risks, 2023.

  9. Mackinac Center. The Overton Window.

  10. Britannica. Misinformation and Disinformation.

  11. Informe propio preparado para el Expert Forum EMERGE, Palermo 2026.

bottom of page