A lo largo de los años, se ha sostenido la creencia de que las noticias falsas se difunden más rápidamente que las verdaderas, una idea que ha sido casi universalmente aceptada. Esta percepción se ha alimentado de investigaciones previas que demostraban cómo las falacias podían alcanzar mayores distancias y velocidades en plataformas sociales. Sin embargo, un nuevo estudio aporta un matiz relevante: esta ventaja no parece ser inherente a las personas, sino que se origina en el entorno digital en el que interactúan.
La investigación, liderada por el académico Nicolas Fay en la University of Western Australia, examinó el comportamiento de más de 4.600 participantes en diversas situaciones controladas. La esencia del experimento era sencilla: observar la creación y el intercambio de mensajes sin la influencia de algoritmos o sistemas de recomendación.
La verdad tiene mejor rendimiento sin algoritmos

Los hallazgos son bastante evidentes. Cuando los participantes creaban mensajes con la intención de persuadir o atraer a otros, los contenidos verídicos no solo no se quedaban atrás, sino que eran percibidos como más convincentes y creíbles que los falsos.
Aún en contextos donde el objetivo era captar la atención, las noticias falsas no ofrecían una ventaja evidente. En numerosas ocasiones, generaban rechazo o eran menos efectivas para influir en la opinión de los demás. Esto se opone a la noción generalizada de que lo engañoso prevalece porque resulta más atractivo por naturaleza.
El estudio plantea una conclusión distinta. Sin incentivos externos, las personas no tienden a priorizar la desinformación de manera espontánea.
¿Por qué se viralizan las noticias falsas en redes sociales?
Aquí es donde los algoritmos juegan un papel crucial. Las plataformas digitales no son entornos neutrales. Los sistemas de recomendación priorizan ciertos tipos de contenido basándose en métricas como la interacción, el tiempo de visualización o las reacciones emocionales que provocan. Este tipo de lógica puede favorecer mensajes más controvertidos, sorprendentes o extremos, sin importar su veracidad.
Esto se alinea con investigaciones anteriores, como el famoso estudio publicado en Science en 2018, que demostró que las noticias falsas se difunden más rápidamente en X (Twitter). La diferencia radica en que este análisis se centraba en lo que sucede dentro de la plataforma, mientras que la nueva investigación busca entender el comportamiento humano fuera de ese sistema.
La conclusión no es que lo anterior sea erróneo, sino que la viralidad no depende únicamente del contenido, sino también del entorno que lo propulsa.
Compartir no siempre equivale a creer
El estudio también aporta un aspecto importante. La decisión de compartir un mensaje no depende solo de su veracidad, sino de factores como la emoción que provoca o su capacidad para generar interacción social.
En muchos casos, las personas comparten contenido porque refuerza relaciones, genera diálogo o produce sorpresa. Esto explica por qué ciertos mensajes falsos pueden circular con facilidad, incluso cuando no convencen del todo a quien los difunde.
Además, se observa el efecto de verdad ilusoria, donde la repetición de una idea incrementa su apariencia de credibilidad, sin importar si se basa en hechos reales.
La inteligencia artificial complica aún más la situación

Un aspecto interesante del estudio es la comparación entre textos elaborados por humanos y aquellos generados por inteligencia artificial. Los mensajes producidos por modelos como GPT-3.5 fueron considerados, en promedio, como más persuasivos y más propensos a ser compartidos, especialmente cuando se les solicitó que fueran verídicos.
Esto abre un nuevo dilema. Si las herramientas de IA pueden crear contenido convincente con facilidad, el desafío ya no radica solo en distinguir entre verdad y mentira, sino también en comprender cómo se elaboran los mensajes que circulan en el entorno digital.
La problemática va más allá de lo que se dice, abarca cómo se amplifica
El estudio presenta limitaciones evidentes: se realizó en un entorno controlado y no refleja toda la complejidad de las redes sociales reales. Sin embargo, su valor radica en distinguir dos aspectos que a menudo se confunden: la psicología individual y el funcionamiento de las plataformas. Y ahí surge una idea esencial.
El problema de la desinformación no parece residir únicamente en la preferencia de las personas por lo falso, sino en que los sistemas digitales pueden amplificar ciertos contenidos sobre otros. En este contexto, la visibilidad deja de depender solo de la calidad o veracidad del mensaje y pasa a estar mediada por cómo los algoritmos priorizan lo que vemos.
Esto no elimina la responsabilidad individual, pero sí cambia el enfoque. Comprender cómo circula la información en internet implica observar no solo a quienes la crean o comparten, sino también a las estructuras que determinan qué llega a ser visible. Y en este ámbito, los algoritmos tienen un impacto mucho mayor del que se ha reconocido durante años.