top of page

Cogito, ergo IA: Cómo la inteligencia artificial está erosionando nuestra confianza en la realidad

  • Foto del escritor: Pilar Paredes
    Pilar Paredes
  • hace 1 día
  • 4 Min. de lectura

Cómo la IA está erosionando la realidad
Cómo la IA está erosionando la realidad

La IA generativa, entiéndase ChatGPT, Claude, Gemini o Grok, está empezando a ser imprescindible en nuestra vida diaria, ya sea para el trabajo o simplemente como diversión.


Es fácil pasar las horas muertas imaginando fotos de tus compañeros en situaciones inverosímiles, como poner al mejor comercial de la empresa a venderle un Ferrari al Dalái Lama, o sentirte acompañada mientras te abraza tu actor favorito en una imagen para enviársela a tus amigas aburridas en el grupo de WhatsApp.


Sin embargo, aunque muchas de estas imágenes todavía se detectan como contenido realizado por IA, la tecnología avanza tan deprisa que cada vez es más fácil que una falsificación resulte verosímil. Y ahí empieza la desconfianza.


No es casualidad: una revisión sistemática reciente sobre deepfakes concluye que, en conjunto, los humanos apenas los detectamos algo por encima del azar (Diel et al., 2024).


Es bastante habitual ver en publicaciones de TikTok con noticias como el divorcio de Messi o personas que se salvan milagrosamente de un accidente de tráfico comentarios como “esto es IA” o “¿de verdad que no es IA?”.


Pues, aunque hay momentos en los que la realidad supera a la ficción, hoy vivimos bombardeados por imágenes, audios y titulares que nos hacen dudar de nuestra percepción de la realidad. Y aquí aparece otro fenómeno inquietante: el llamado liar’s dividend.


Cuando sabemos que algo puede ser falso, también empezamos a sospechar de lo que sí es real. Dicho de otra manera: la existencia de los deepfakes no solo facilita el engaño, también facilita negar pruebas auténticas con un simple “eso es IA” (Chesney y Citron, 2019).


Y esto nos lleva a situaciones que pueden ser incluso dramáticas, como las estafas emocionales o las falsas promesas construidas a partir de imágenes, audios y mensajes cada vez más convincentes.


Todos nos sentimos compasivos con quienes caen en ellas por su candidez o inocencia. Pero quizá la pregunta correcta no es si son ingenuos, sino hasta qué punto cualquiera de nosotros podría serlo.


Pero ¿este escepticismo viene dado por la incultura, la inocencia o la falta de educación?


En el siglo XVII, el gran filósofo René Descartes inauguró un método para saber lo que realmente existe y lo que no. Para él, los sentidos nos engañan: podemos ver una cuchara doblada dentro de un vaso y, cuando la sacamos, la cuchara está perfectamente recta.


Pero una cosa afirmaba Descartes con convicción: no puedo dudar del mismo acto de dudar. “Cogito, ergo sum”, porque si dudo, pienso y, por lo tanto, existo.


En el siglo XXI es difícil, con tanto desarrollo científico, que dudemos de si a la vuelta de la esquina, cuando ya no podemos ver el paisaje detrás de nosotros, el mundo siga existiendo.


Pero sí podemos dudar de la propia información que tenemos delante. Y eso es nuevo: no solo desconfiamos de lo que vemos, sino también del soporte, del emisor y hasta del contexto.


Existen dos conceptos diferenciados al respecto: misinformation y disinformation. El primero se refiere a la información falsa o inexacta difundida sin intención de engañar, ya sea por desconocimiento, por falta de datos o por error.


El segundo implica intención deliberada de manipular, confundir y conducir al error (APA, 2024). Y, además, la psicología lleva años estudiando algo muy parecido a lo que vemos hoy en redes: el illusory truth effect. La repetición aumenta la apariencia de verdad, incluso cuando la afirmación es falsa, implausible o contradice conocimientos previos (Udry y Barber, 2024).


Las consecuencias del escepticismo generado por el uso de la IA nos conducen a una falta de confianza no solo en el emisor de dicha información, sino que, dependiendo del objeto de la noticia, pueden hacernos perder la confianza en las instituciones e incluso en la democracia. Ese deterioro de la confianza pública no nace solo del bulo, sino también de la sensación de que ya no sabemos qué prueba vale y cuál no.


La otra consecuencia directa de la desinformación es la polarización. Los estudios científicos muestran que lo falso circula con enorme eficacia en redes: un trabajo clásico publicado en Science concluyó que las noticias falsas se difunden más lejos, más rápido y más profundamente que las verdaderas (Vosoughi, Roy y Aral, 2018).


Además, otro estudio en PNAS observó que el lenguaje moral y emocional incrementa la difusión de mensajes políticos en redes sociales (Brady et al., 2017). Por eso, la información que nos produce indignación se aplaude, se comparte y se viraliza con rapidez. Y eso puede ser muy peligroso si no contrastamos esa información con hechos y datos reales.


Yo pensaba que los nativos digitales eran más propensos a distinguir el contenido generado o manipulado por IA que el que no lo es.


Sin embargo, la evidencia no permite ser tan optimistas. Ser nativo digital no inmuniza. La revisión de Diel et al. (2024) sitúa el rendimiento humano cerca del azar en la detección de deepfakes, y un estudio sobre Facebook mostró que, en el contexto analizado, los mayores de 65 años compartieron bastante más contenido procedente de dominios de fake news que los jóvenes (Guess, Nagler y Tucker, 2019).


Es decir, el problema no se resuelve por edad, sino por criterio, alfabetización mediática y hábito de contraste.

Y ahora surge una gran paradoja: el uso continuado de la IA generativa para el estudio o el trabajo puede llegar a confirmar lo que ya Homer Simpson dijo una vez acerca de una noticia: “¿Cómo no va a ser verdad si lo dice la tele?”.


Ahora la verdad puede quedar sustentada por lo que nos dice Gemini, Grok o ChatGPT. Pero los estudios empiezan a advertir de algo incómodo: cuando aumenta nuestra confianza en la IA generativa, puede reducirse el esfuerzo crítico que dedicamos a revisar sus respuestas (Lee et al., 2025).


La comodidad que nos da también puede anestesiar parte de nuestro juicio.


Entonces, ¿qué va a pasar ahora? ¿Cómo podremos distinguir lo que es verdad de lo que no? ¿Nos volveremos totalmente escépticos?


¿O seremos capaces de recuperar el juicio y, como quería Kant, dar por verdad solo aquello que realmente resista la razón, la experiencia y la contrastación?

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page