Uno de los principales ejes de la forma en que entendemos el mundo, dice el profesor de la Universidad de Harvard, Lee McIntyre, en su libro “Posverdad” son los sesgos cognitivos, mecanismos de autodefensa que nuestro cerebro utiliza desde que somos humanos, con el fin de reducir la diferencia entre lo que creemos o sentimos, con lo que las evidencias nos muestran.
El sicólogo social León Festinger explicaba en su libro “Teoría de la disonancia cognitiva” que cuando nos enfrentamos a esa situación de disonancia entre lo que queremos creer y los hechos, tratamos de reducir esa brecha, pues “el individuo procura lograr la consistencia dentro de sí mismo” y porque la disonancia es “sicológicamente incómoda”.
Uno de los ejemplos más clásicos para explicar lo anterior es el de una secta llamada “Los buscadores”, que Festinger investigó.
Como tantos otros grupos apocalípticos, los miembros de este creían que el día final tenía fecha y hora (el 21 de diciembre de 1954) y que una nave alienígena llegaría a rescatarlos antes del fin de los tiempos, mientras otros ETs eliminaban a todos los demás, por pecadores, claro.
De ese modo, “Los buscadores” vendieron sus bienes, se despidieron de sus seres queridos y se fueron a la cima de una montaña a esperar el taxibús espacial que, por cierto, nunca llegó.
Como dice McIntyre, “la disonancia cognitiva debió de ser tremenda”. Claro. Todos los miembros de la secta creyeron durante años en dicha historia y al final la realidad les dio un portazo muy fuerte. ¿Cómo salvar la situación? Muy simple. La líder del grupo les explicó que como habían rezado tanto, ellos habían salvado el mundo, convenciendo a los extraterrestres de no destruirlo (gracias por eso, buscadores).
Por cierto, el académico apunta a que “esas tendencias tan irracionales tienden a reforzarse cuando nosotros estamos rodeados de otras personas que creen lo mismo que nosotros. Si solo una persona hubiera creído en el culto del fin del mundo, quizá él o ella se habría suicidado escondido, pero cuando se comparte una creencia errónea con otros, a veces incluso los errores más increíbles se pueden racionalizar”. Eso se denomina homofilia, y en el mundo de la posverdad es fomentado por los algoritmos de las redes sociales, como explicaba Cristian Huepe en esta entrevista.
Los sesgos cognitivos
Cuando aparece la disonancia cognitiva afloran también los sesgos cognitivos. El más famoso de ellos, detalla McIntyre, es el sesgo de confirmación, que básicamente radica en que si alguien que está muy convencido de algo (sobre todo en materias políticas) es muy difícil conseguir que cambie de opinión. Por el contrario, de aquella información que se le presenta, seleccionará solo aquella que confirme sus ideas preexistentes y desechará la que le resulte contradictoria.
Las fábricas de noticias falsas saben mucho de sicología social y tienen muy clara la forma en que funciona el cerebro humano. Así, por ejemplo, la exejecutiva de Cambrigde Anayltica, Brittany Kaiser, relata en su libro recién publicado “La dictadura de los datos” que cuando conoció a su presidente, Alexander Nix, este le señaló que ellos no eran una clásica agencia de publicidad, sino “una agencia de cambio conductual”.
Es por ello que el trabajo que realizaba dicha compañía, así como el que hacen las fábricas de noticias falsas rusas y muchas otras, necesita contar con los datos íntimos de las personas a las cuales hacen llegar sus mensajes personalizados (lo que se denomina microtargeting). De otro modo, es casi imposible cambiar una conducta.
McIntyre señala además otros dos tipos de sesgos cognitivos muy presentes en la posverdad. El primero de ellos es el llamado efecto contraproducente, que en términos muy simples consiste en que muchas personas, en vez de aceptar la evidencia contradictoria respecto de aquello en que creían erradamente, la desecha de plano y, por el contrario, “dobla la apuesta” respecto de la creencia errada. En una época en la cual abundan las ideas conspiranoicas, si se le dice a un “terraplanista” que La Tierra en realidad es redonda, y se le muestran evidencias de ello, lo más probable es que piense que se trata de una megaconspiración destinada a ocultar la verdad al pueblo y crea con mayor firmeza en aquello que creía antes.
Por cierto, es frecuente escuchar cosas como “yo creo lo que quiero creer”, actitud que deviene (según el profesor de Harvard) de la idea posmoderna de que todo puede ser deconstruido y analizado como se quiera.
Otra frase frecuente en los mares de la posverdad es “yo no creo en la ciencia”, que está muy relacionada con el otro sesgo cognitivo muy presente en estos días y en las redes sociales: el efecto Dunning-Kruger, más conocido como el efecto “demasiado estúpidos para saber que son estúpidos”, como lo explica McIntyre, quien detalla que “es un sesgo cognitivo que tiene que ver con cómo los sujetos con bajas capacidades son a menudo incapaces de reconocer su propia ineptitud”.
El efecto Dunning-Kruger se llama así debido al nombre de los académicos que lo describieron en 1999. Probablemente la mejor descripción de cómo opera la hizo, poco antes de su fallecimiento, el gran semiólogo y escritor italiano Umberto Eco, quien en la conferencia de prensa que dio después de una clase magistral en Turín, señaló que “las redes sociales le dan el derecho de hablar a legiones de idiotas que primero hablaban solo en el bar después de un vaso de vino, sin dañar a la comunidad. Ellos eran rápidamente silenciados, pero ahora tienen el mismo derecho a hablar que un premio Nobel. Es la invasión de los imbéciles”.