“Tendrás mil retuits en 20 minutos», me promete el estratega electoral de Donald Trump, cuando le felicito en un tuit con una foto estrechándole la mano, por haber adivinado que el millonario ganaría las elecciones. «No te creas a Twitter», insiste. «Es absolutamente manipulable». Lo dice por experiencia profesional. Quince minutos más tarde ya tengo 933 retuits. «Se me acabó la batería», sonríe, «pero ya somos tendencia en México y Monterrey», las ciudades que él controla. ¿Qué ha utilizado? Bots y otros artilugios informáticos de los que no quiere hablar. Un bot (abreviatura de robot) es un programa que efectúa tareas repetitivas. Pueden ir muy mucho más rápido que una persona y parecen humanos. Los bots hacen preguntas y dan respuestas en el idioma que queramos. Solo hace falta haber captado, analizado y archivado la información anteriormente.

En la campaña electoral de EEUU, 400.000 bots emitieron cuatro millones de tuits. El 15% de discusiones en la red provenían de una cuenta robotizada. El 38% de los mensajes de Trump eran falsos, casi el doble de los de Clinton, un 20%. Según un estudio de la Universidad de Southern California, el contenido negativo viaja hasta cinco veces más rápido por las redes que el positivo, me confirma el prestigioso sociólogo Manuel Castells. Por eso triunfan los rumores y noticias falsas. El hecho de que una información sea muy compartida nos hace creer que es verdad. Tanta gente no puede estar equivocada, pensamos. Desaparece la capacidad crítica y entramos en una espiral de silencio, porque no soportamos el peso social de la disidencia. El efecto rebaño se transforma en la tiranía de la mayoría, que reprime voces discrepantes con ataques personales y misiles descalificadores. Adictos a las redes, nuestra mente se estandariza.

Facebook solo nos muestra aquello que queremos ver. Su algoritmo prioriza los mensajes con los que nos identificamos. Según el organismo Pew Research, que informa de las tendencias y actitudes que afectan a EEUU, el 44% de sus ciudadanos se informan a través de Facebook y acaban compartiendo los valores y estados de ánimo que reflejan sus amigos. Facebook abre una puerta de entrada hacia nuestro cerebro y es capaz de programar lo que sentimos. Y lo que es más grave, ya se utiliza para ello, porque en unas elecciones, las personas votan al candidato que provoca los sentimientos adecuados a sus valores, no al que presenta mejores argumentos.

Dicen los expertos que solo hay una salida: la credibilidad. Que únicamente nos hemos de fiar de las personas cercanas y de los profesionales y medios de comunicación que se la han ganado a pulso. Un siglo antes de Cristo, Cicerón decía: no hay nada tan increíble que la oratoria no pueda cambiar en aceptable. Ahora, 21 siglos después de Cristo, sabemos que 140 caracteres y miles de bots nos pueden alterar los sentimientos y manipular nuestra voluntad. Seamos cautos y con la mente crítica.

* Periodista