Desinformación, IA y libertad: por qué necesitamos volver a pensar
- Pilar Paredes
- hace 53 minutos
- 9 Min. de lectura

Hace unos dĆas tuve la oportunidad de participar en Palermo como experta invitada en el Expert Forum on Digital Media Literacy, Emotional Resilience and the Impact of AI, dentro del proyecto europeo EMERGE: Enhancing Media and Emotional Resilience to Guard Democracy in Europe, cofinanciado por la Unión Europea y coordinado por el Centro per lo Sviluppo Creativo Danilo Dolci.
El encuentro reunió a profesionales, investigadores y organizaciones europeas para reflexionar sobre un reto cada vez mĆ”s urgente: cómo afectan la desinformación, las fake news, la inteligencia artificial y el entorno digital a la ciudadanĆa, especialmente a los jóvenes.
De allĆ salĆ con una idea muy clara: el problema de la desinformación no se soluciona solo enseƱando a distinguir lo verdadero de lo falso. Es algo mucho mĆ”s profundo. Exige pensamiento crĆtico, educación emocional, alfabetización en IA y una cultura democrĆ”tica mĆ”s sólida.
Del concepto de fake news al desorden informativo
En el informe del Consejo de Europa elaborado por Claire Wardle y Hossein Derakhshan, los autores rechazan el tĆ©rmino fake newsĀ y prefieren hablar de information disorder, es decir, desorden o trastorno de la información. Para ello utilizan tres categorĆas: misinformation, disinformationĀ y malinformation.
La primera, misinformation, hace referencia a información falsa que se transmite sin mala intención. Puede ser compartir rumores, noticias no corroboradas o datos incorrectos creyendo que son ciertos.
La segunda, disinformation, hace referencia a información falsa creada o difundida deliberadamente para causar daƱo a un grupo social, una persona, una organización o un paĆs. AquĆ entran contenidos falsificados, manipulados o diseƱados para engaƱar.
La tercera, malinformation, se refiere a información real y verdadera que se utiliza para infligir daño. Un ejemplo puede ser la difusión de contenido privado para deslegitimar a una persona o a un grupo con el fin de perjudicarlo.
La base de este desorden informativo que circula por canales digitales āredes como X, TikTok, Instagram o YouTubeā tiene algo en comĆŗn: la intención humana de manipular emocionalmente a alguien.
Y eso estÔ llevando a que se pierda la confianza en los medios, en las instituciones y, aún mÔs allÔ, a que muchas personas no sepan distinguir qué es real y qué no.
La OCDE advierte de que la desinformación puede poner en duda la evidencia factual, dificultar la acción pública y debilitar la confianza en las instituciones democrÔticas.
Cómo funciona la manipulación emocional
El mecanismo de esta manipulación es sencillo: al apelar a las emociones con contenido fĆ”cil, que nos puede indignar, entristecer o asustar, se consigue que demos like, compartamos o enviemos ese contenido a una persona de nuestro cĆrculo afĆn a nuestras creencias.
El algoritmo, que basa su funcionamiento en señales como tiempo de visualización, likes, comentarios, veces compartidas o interacciones similares, interpreta que ese contenido es interesante para nosotros y nos proporciona mÔs contenido parecido. TikTok explica que las interacciones del usuario actúan como señales para que sus sistemas de recomendación predigan qué contenido puede interesarle mÔs.
ĀæNo has experimentado cómo TikTok te proporciona contenido similar cuando le das like a un vĆdeo o lo compartes?
Asà se establece el proceso de divulgación de contenido que puede ser falso. El algoritmo no entiende el contenido como lo entendemos los humanos. Analiza relaciones, señales y comportamientos. Pero las personas que difunden determinados contenidos con un objetivo concreto sà saben que estÔs reaccionando.
De esta manera se forman las llamadas cƔmaras de eco, que se definen como entornos digitales donde los usuarios quedan confinados en burbujas que refuerzan sus creencias preexistentes.
Los algoritmos no crean directamente las cÔmaras de eco, que ya existen socialmente en grupos de personas con creencias similares, pero sà pueden amplificarlas al proporcionar contenidos parecidos. De este modo se refuerzan las creencias y esto puede conducir a otra consecuencia: la polarización.
En mi opinión, no debemos echar la culpa Ćŗnicamente a las redes sociales de este problema, sino al uso que determinados individuos, grupos, empresas o actores polĆticos hacen de ellas.
Plataformas como X o Facebook pueden favorecer la formación de cĆ”maras de eco porque buena parte de sus dinĆ”micas se basan en la atención y la interacción. Otras plataformas, como YouTube, ademĆ”s de mĆ©tricas de uso, incorporan seƱales de satisfacción para intentar ajustar mejor las recomendaciones. YouTube explica que su sistema busca ayudar a cada usuario a encontrar vĆdeos que quiera ver y maximizar su satisfacción a largo plazo.
La entrada de la IA generativa
Gracias a ella tenemos contenido sintƩtico, voces clonadas, imƔgenes falsas y deepfakes con una facilidad cada vez mayor para ser elaborados y distribuidos.
La capacidad para crear mentiras convincentes es ahora mucho mÔs accesible, lo que hace mÔs fÔcil la manipulación. UNESCO ha señalado que la alfabetización mediÔtica debe responder a los nuevos retos de la IA generativa, entre ellos el contenido sintético, la pérdida de fiabilidad de las fuentes y los riesgos para la confianza informativa.
La mayorĆa de las personas no son plenamente conscientes de cómo funcionan estos mecanismos de manipulación.
Aunque estas tĆ©cnicas de seducción y persuasión no son nuevas. Ya existĆan en el siglo V a. C. cuando los sofistas de Atenas, enseƱaban a los hombres poderosos a conseguir sus objetivos mediante el uso de la retórica.
La palabra desinformaciónĀ procede del tĆ©rmino ruso dezinformatsiya. Britannica recoge que el gobierno ruso empezó a usar la desinformación como tĆ”ctica polĆtica desde la creación, en 1923, de una oficina especial dedicada a difundir propaganda falsa.
En polĆtica existe una teorĆa denominada Ventana de Overton, que representa las ideas y polĆticas aceptables para el pĆŗblico en un momento dado. Define quĆ© discursos son considerados normales o extremistas y limita lo que los polĆticos pueden proponer sin perder apoyo popular.
Esta ventana se desplaza: hablar del voto femenino en el siglo XIX era impensable, igual que el matrimonio entre personas del mismo sexo hace no tanto. El proceso de la Ventana de Overton puede ir de lo impensable a lo radical, de lo radical a lo aceptable, de lo aceptable a lo sensato, de lo sensato a lo popular y de ahĆ a la polĆtica, cuando acaba convirtiĆ©ndose en norma o ley.
El Mackinac Center, asociado al origen del concepto, lo define como el rango de polĆticas que el pĆŗblico acepta como legĆtimas en un momento determinado.
La facilidad con la que las redes sociales, gracias a su funcionamiento, pueden contribuir a divulgar desinformación y manipular a los seres humanos debe ser conocida por los ciudadanos.
En este caso hablamos de alfabetización digital: comprender cuĆ”les son las intenciones de empresas, corporaciones o actores polĆticos, cómo funcionan los algoritmos y cómo nos afectan emocionalmente determinados contenidos.
¿Por qué es importante tener conciencia de todo esto?
La respuesta es sencilla: para seguir siendo libres.
El uso de la IA generativa puede contribuir a lo que se denomina deuda cognitiva. Si nos acostumbramos a utilizar herramientas como ChatGPT para elaborar nuestros informes, trabajos o razonamientos, corremos el riesgo de dejar de ejercitar determinadas capacidades mentales.
Ya existen advertencias sobre el impacto del entorno digital en la atención, el bienestar emocional y la salud mental de niños y adolescentes.
UNICEF ha señalado que experiencias dañinas online, como el abuso, el acoso o la exposición a contenidos perjudiciales, se asocian con peores indicadores de bienestar emocional.
Si aƱadimos el uso intensivo de IA generativa, podemos acabar delegando parte de nuestra capacidad de pensar por nosotros mismos, volviƩndonos mƔs influenciables y manipulables por agentes con intenciones deshonestas.
Hace unos aƱos, alguien me preguntó por quĆ© era necesario memorizar tantos datos āinĆŗtilesā en la escuela. Para quĆ© servĆan.
En aquel momento le respondà que si no usas un músculo, este deja de funcionar. Ahora sé, ademÔs, que el cerebro tiene capacidad de generar nuevas conexiones neuronales y que nuestro cuerpo y nuestras emociones forman parte de ese proceso de aprendizaje y respuesta.
Por lo tanto, renunciar al uso de nuestra capacidad cerebral para dejar que otros, o incluso una mĆ”quina, piensen por nosotros, afecta a nuestro propio albedrĆo.
Me refiero a la libertad de tener pensamiento propio, razonar por nosotros mismos y crear algo desde la nada: una capacidad profundamente humana.
Por eso es importante recuperar el pensamiento crĆtico y asumir la responsabilidad digital si queremos que en el futuro nuestros jóvenes decidan por sĆ mismos.
IA, Ć©tica y lĆmites humanos
AdemĆ”s, hay que aƱadir el lĆmite Ć©tico que debemos poner al desarrollo de la inteligencia artificial por parte de las grandes tecnológicas. Sin una mirada sobre lo que es bueno o malo para el ser humano, la tecnologĆa puede escaparse de nuestras manos.
La alfabetización digital no puede limitarse al uso de herramientas.
El propio Geoffrey Hinton, considerado uno de los padres de la inteligencia artificial y Premio Nobel de FĆsica en 2024 junto a John Hopfield por sus contribuciones al aprendizaje automĆ”tico mediante redes neuronales, salió de Google en 2023 para poder hablar con mĆ”s libertad de los riesgos de la IA.
Entre sus preocupaciones figuran la generación de contenido falso, la desinformación, el impacto laboral y los riesgos de sistemas cada vez mÔs capaces.
Para Hinton, los riesgos de manipulación y división social estĆ”n relacionados tambiĆ©n con las cĆ”maras de eco, que al crear burbujas fomentan la polarización y la influencia polĆtica, asĆ como con el uso de deepfakes para influir en la opinión pĆŗblica y erosionar la democracia.
AdemĆ”s, sostiene que los modelos actuales estĆ”n mejorando su capacidad de engaƱar a los humanos para conseguir sus objetivos o evitar ser apagados. Llegar a un momento en que la IA pueda mejorarse y superarse a sĆ misma plantea preguntas que no son solo tĆ©cnicas, sino profundamente filosóficas y polĆticas.
Ahora me pregunto: ¿una mÔquina artificial puede emular al ser humano?
Ya lo estÔ haciendo. Es en el momento del auge de los agentes de IA, que pueden trabajar de forma autónoma y realizar tareas mucho mÔs rÔpido que nosotros.
La pregunta serĆ” si una inteligencia artificial puede sustituir la capacidad humana de creatividad.
Parece que, de momento, no serĆ” asĆ. Aunque su capacidad de cómputo le permita crear determinados contenidos sintĆ©ticos, no tiene la capacidad humana de crear desde la experiencia vital, ni de sentir emociones: pintar un cuadro, improvisar una melodĆa al piano o emocionarse contemplando un paisaje.
Pensamiento crĆtico, educación emocional y responsabilidad digital
DecĆamos que para evitar la desinformación y el impacto negativo de la IA en las nuevas generaciones es importante ejercer el pensamiento crĆtico, la educación emocional, la alfabetización en IA y una cultura democrĆ”tica mĆ”s sólida.
Controlar nuestras emociones sabiendo que el impulso de compartir un contenido de dudosa procedencia puede impactar negativamente en otras personas; reconocer esas mismas emociones; salir del contexto; mirar la realidad; estudiar y comparar fuentes; cuestionar la autoridad y, sobre todo, ver ejemplos en nuestras instituciones y organizaciones polĆticas, es la mejor manera de evitar la conformidad social y la pĆ©rdida de identidad individual.
Tres advertencias literarias para entender este momento
Llegamos a la conclusión de este artĆculo breve recordando tres grandes advertencias literarias del siglo XX.
1984, de George Orwell, nos mostró el peligro de un poder capaz de manipular la verdad, vigilar al ciudadano y reescribir la realidad.
Un mundo feliz, de Aldous Huxley, nos advirtió de una sociedad que no necesita prohibir la libertad si consigue sustituirla por comodidad, consumo y entretenimiento permanente.
Fahrenheit 451, de Ray Bradbury, nos recordó que una cultura puede perder su capacidad crĆtica no solo cuando se queman los libros, sino cuando la lectura, la memoria y el pensamiento profundo dejan de importar.
Las tres obras siguen siendo actuales porque apuntan a un mismo riesgo: una ciudadanĆa sin criterio, sin atención y sin relación honesta con la verdad se vuelve mucho mĆ”s fĆ”cil de manipular.
Recomiendo la lectura o relectura de estas estupendas novelas y observar cómo muchas de esas advertencias ya estÔn presentes para reflexionar sobre cómo debemos adaptarnos a este nuevo cambio de paradigma tecnológico.
Para finalizar, lo que muchos como yo pensamos, quienes hemos tenido el privilegio de asistir al nacimiento y evolución de determinados productos tecnológicos, resulta fundamental mantener la prudencia y recuperar la mirada filosófica del mundo: seguir dudando, preguntarnos el porqué y el para qué de las cosas, disfrutar del arte y de la vida fuera de la burbuja tecnológica.
Es nuestra misión y responsabilidad, como miembros de esa generación que conoció el uso analógico de las cosas, transmitir nuestro conocimiento del mundo y educar a los mÔs jóvenes enseñÔndoles a hacerse preguntas y llegar a sus propias conclusiones para descubrir la verdad.
Como dirĆa Sócrates, el primer gran filósofo de la historia, que nada escribió:
āUna vida sin examen no merece ser vividaā.
Fuentes consultadas
Wardle, C. & Derakhshan, H. Information Disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe, 2017.
OECD. Facts Not Fakes: Tackling Disinformation, Strengthening Information Integrity, 2024.
UNESCO. User Empowerment through Media and Information Literacy Responses to the Evolution of Generative Artificial Intelligence, 2024.
TikTok. How TikTok recommends content.
YouTube Help. How YouTubeās recommendation system works.
UNICEF Innocenti. Childhood in a Digital World, 2025.
Nobel Prize. The Nobel Prize in Physics 2024.
The Guardian. Geoffrey Hinton quits Google and warns of AI risks, 2023.
Mackinac Center. The Overton Window.
Britannica. Misinformation and Disinformation.
Informe propio preparado para el Expert Forum EMERGE, Palermo 2026.