top of page

¿Podemos confiar en lo que vemos? 5 verdades sorprendentes sobre nuestra relación con la IA según la ciencia

  • Foto del escritor: Pilar Paredes
    Pilar Paredes
  • hace 2 días
  • 5 Min. de lectura

un niño mirando hacia arriba con gesto de duda
La IA y la duda tecnológica

Estamos en medio de un scroll infinito. Pasas de un vídeo en TikTok a una imagen en Instagram y, por un segundo, tu cerebro se detiene: ¿esa persona existe?, ¿ese paisaje es real?, ¿ese discurso ocurrió de verdad?


La duda, que durante siglos fue una herramienta filosófica para buscar la verdad, se ha convertido ahora en una reacción cotidiana frente a la pantalla.

Descartes utilizó la duda como método: no para vivir paralizado por la sospecha, sino para separar lo verdadero de lo aparente y encontrar una base firme desde la que pensar. Hoy, en plena era de la inteligencia artificial generativa, esa duda cartesiana vuelve a ser necesaria. No porque todo sea falso, sino porque ya no podemos permitirnos creer de forma automática en todo lo que vemos.


Pero dudar no basta.


Kant nos recordó que pensar exige salir de la comodidad de la obediencia intelectual. Su famosa invitación al sapere aude —atrévete a saber, atrévete a pensar por ti mismo— sigue siendo profundamente actual.


En un entorno donde los algoritmos seleccionan lo que vemos, la IA puede fabricar imágenes perfectas y la viralidad premia lo emocional antes que lo verdadero, vivir críticamente significa asumir la incomodidad de pensar, contrastar, revisar nuestras creencias y aceptar la crítica como parte del camino hacia una mayor autonomía.


Esa es quizá una de las grandes tareas de nuestro tiempo: aprender a habitar la duda sin caer en el cinismo, y usar el pensamiento crítico no como una defensa contra el mundo, sino como una forma de libertad.


Porque la inteligencia artificial generativa no solo está cambiando el contenido que consumimos. Está reconfigurando nuestra percepción de la realidad, nuestra confianza en las imágenes, nuestra relación con la verdad y nuestra capacidad para distinguir entre lo auténtico, lo manipulado y lo artificialmente perfecto.


Para entender este fenómeno, el estudio “Hype & Hesitation”, realizado por RNW Media y la Universidad de Ámsterdam, junto con investigaciones recientes de la Universidad de Florida Central, analiza cómo estamos navegando este nuevo escenario. Sus hallazgos muestran que la IA generativa no solo plantea un desafío tecnológico, sino también educativo, cultural y profundamente humano.


La pregunta ya no es solo si una imagen ha sido creada por IA. La pregunta de fondo es mucho más inquietante:


¿Estamos preparados para seguir pensando por nosotros mismos cuando la realidad empieza a parecer editable?

Esta duda no es una simple paranoia individual; es el síntoma de una fractura profunda en nuestra confianza digital. Nuestra intuición biológica está siendo puesta a prueba por herramientas sintéticas cada vez más sofisticadas, creando una tensión constante entre lo que vemos y lo que sabemos que es posible.


1. La brecha de la precisión: Los nativos digitales no son infalibles


Existe el mito de que los jóvenes (18-35 años), por ser nativos digitales, poseen un "sexto sentido" infalible para detectar lo sintético. La ciencia dice lo contrario.


A pesar de que herramientas como ChatGPT son usadas por el 69% de los jóvenes y plataformas como Canva o CapCut son esenciales en su día a día, la rapidez de la tecnología sigue superando nuestra capacidad biológica de detección.


  • Precisión general: La capacidad media de reconocer contenido IA es de solo un 67%.

  • El engaño de la imagen: Somos más vulnerables ante las fotos, donde la precisión cae al 64%.

  • La ventaja del video: Los errores en el movimiento y la textura elevan el acierto al 77%, aunque esta brecha se cierra rápidamente.


Esta dificultad genera lo que el investigador Carson (2024) define como un "escepticismo generalizado", una desvalorización de todo lo digital donde el juicio crítico se agota.

"Todo en Internet es ahora cuestionable". — Testimonio de un participante en Nigeria.


2. El "Efecto París vs. Parakou": Colonialidad tecnológica


El impacto de la IA no es geográficamente neutral. En el Sur Global, especialmente en países como Benín, los algoritmos actúan como un espejo de la perspectiva del Norte Global. Es lo que podemos llamar "colonialidad tecnológica": donde los datos de unos pocos definen la realidad de la mayoría.


En pruebas realizadas en Benín, se descubrió que la IA conoce mejor París que Parakou. Al pedirle un rostro beninés, el sistema generó rasgos de "tez clara" que no correspondían a la realidad local o, peor aún, respondió que "carecía de información suficiente" para localizar la imagen. La IA no solo crea; excluye basándose en quién la entrena.

"Hay un vacío al tener en cuenta los valores culturales de cada estado".

3. La paradoja de la edad: "Sensibilidad a la IA" como escudo


Aquí surge uno de los hallazgos más fascinantes de la Universidad de Florida Central y Penn State. Mientras los jóvenes confían en su velocidad y familiaridad con las herramientas, los adultos mayores (60-89 años) han desarrollado un mecanismo de defensa inesperado: una tasa mucho más alta de "falsas alarmas".


A diferencia de los jóvenes, los adultos mayores tienden a clasificar contenido real como si fuera IA con mayor frecuencia. Aunque técnicamente es un "error", los científicos lo llaman "Sensibilidad a la IA".


Esta desconfianza extrema actúa como un factor protector o salvaguarda contra la explotación y la desinformación. Mientras el joven asume que "lo entiende", el adulto mayor sospecha por defecto, protegiéndose mejor contra narrativas manipuladas.


4. Estereotipos de cristal: Género y representación LGBTQIA+


La IA no está inventando una nueva estética; está reciclando y amplificando prejuicios del siglo pasado.


El estudio muestra cómo los algoritmos refuerzan normas de género obsoletas:

  • Hiper-feminización: El 44% de los participantes nota una prevalencia de mujeres con rasgos irreales y perfectos.

  • Autoridad masculina: El 32% observa que las figuras de poder siguen siendo representadas bajo un canon de masculinidad tradicional.

  • Sesgo binario: La comunidad LGBTQIA+ sufre una exclusión sistemática, siendo retratada negativamente o bajo narrativas de estricto binarismo de género, borrando la diversidad real en favor de etiquetas simplistas.


Esta búsqueda de la "perfección visual" influye directamente en la autoestima de los jóvenes, distorsionando los estándares de belleza y reforzando estereotipos que la sociedad ya intentaba superar.


5. El toque humano como estándar de oro


A pesar del bombardeo sintético, el ser humano sigue buscando al ser humano. La confianza de los usuarios aumenta drásticamente cuando la IA se presenta como una herramienta de asistencia y no como un reemplazo.


El contenido "demasiado perfecto" genera un rechazo instintivo.

¿Por qué seguimos prefiriendo lo humano?

  • Imperfección: La belleza de lo inacabado genera autenticidad.

  • Matiz emocional: La capacidad de contar historias desde la experiencia vivida.

  • Responsabilidad: El deseo de saber que hay una persona detrás de una noticia o un relato, especialmente en el periodismo.


La IA no es una amenaza inevitable, sino una herramienta que exige un nuevo contrato social.


El 73% de los jóvenes ya exige regulaciones claras que aseguren la transparencia. No es para menos: según proyecciones de Gartner (2024), se espera que para el año 2025, el 10% de todo el contenido de Internet sea generado por IA.


Estamos entrando en una era donde la alfabetización digital ya no es saber usar un programa, sino saber cuándo dudar de lo que vemos.


A medida que la línea entre lo orgánico y lo sintético se evapora, la pregunta ya no es "¿Qué es real?", sino:


¿Quién se beneficia cuando dejamos de creer en nuestros propios ojos?

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page