De las muchas cosas que ignoro desconocía que el término algoritmo procede del nombre del matemático persa que vivió en el califato Omeya de Bagdad Al-Juarismi, latinizado luego como Algorithmi. El dato me lo proporcionó el investigador del CSIC Txetxu Ausín durante su participación en el congreso que lleva el título de este artículo. Esto nos sirve para comprender que lo que él estudió, entre sus múltiples aportaciones a la humanidad y su ciencia, fue desarrollado desde el cerebro humano y que no es producto de ciencia infusa sino de trabajo humano, reflexión, análisis e investigación para resolver ecuaciones cuadráticas. Su principal pretensión era enseñar álgebra aplicada a la resolución de los problemas de la vida cotidiana: división de herencias, partición de patrimonios, cálculos para la construcción, medidas de superficies, actos de comercio, etcétera. Así que seguimos donde estábamos. Los algoritmos siguen siendo elementos para resolver problemas de la vida humana en los que el cálculo es algo esencial.

El problema no es el algoritmo sino la evolución que los avances tecnológicos han propiciado en su desarrollo y en las múltiples aplicaciones a las hoy se dedica. Según nos dijo Inneratity, hoy hay muchas cosas que las máquinas hacen mejor que nosotros y que se sitúan al margen de nuestro control. Hemos delegado nuestra confianza en ellas y al mismo tiempo estamos desconfiando cada vez más de los intermediarios del poder, esto es, de los que nos representan. Empezamos a sospechar de todo poder constituido y en paralelo otorgamos nuestra privacidad a las plataformas tecnológicas que gestionan casi todo de nuestras vidas. Desconfiamos de los políticos y confiamos de las informaciones que «en cascadas» --en palabras de Poiares Maduro-- inundan nuestro cerebro, dando por buenas muchas de ellas por nuestra incapacidad cognitiva de depurarlas todas. Y lo peor es que basándonos en esa información deficiente o simplemente falsa construimos nuestra opinión. Hemos llegado a creer que los algoritmos son neutrales, producto de una resolución automática y mecánica sin intervención humana. Y no, no es así. Los algoritmos se rigen en función de sesgos, de datos previamente seleccionados, de decisiones humanas previamente establecidas y prefijadas por aquellos que van a determinar su uso. Una vez hecha esa labor humana previa, el algoritmo ya despliega su proceso y proporciona resultados.

El espacio digital está en manos de grandes corporaciones tecnológicas (Apple, Microsoft, Amazon, Google, Alphabet, Facebook, Twitter, Huawei, Samsung) que toman estas decisiones al margen de los gobiernos y de quienes nos representan. Son tan poderosas que pueden incluso cerrar la cuenta del presidente de la primera potencia mundial o su tamaño en PIB es más grande que un país medio como Grecia. Desconfiamos de estos políticos y entregamos sin pudor y sin intermediación nuestra privacidad a esas empresas para que gobiernen nuestras vidas. Frente a esto se puede afirmar que existen, resumiendo, tres actitudes globales: el tecnocapitalismo de Sillicon Valley y sus grandes empresas reacias a la injerencia del Estado en su libertad de mercado; el tecnoautoritarismo de China, donde el control del Estado es total sobre las plataformas digitales e internet; y, finalmente, el modelo europeo en el que a través de procesos de regulación y gobernanza se está tratando de regular un espacio digital respetuoso con los derechos humanos, creando un modelo distinto de control de esa selva digital. Sí, Europa, tan necesaria para nuestra independencia como denostada por sus enemigos.

Como hemos dicho, el algoritmo no es neutral, refleja sesgos previamente fijados procedentes de decisiones que alguien ha tomado antes. Han sido definidos como «armas de destrucción matemática», que llegan a fijar qué es la verdad. Carme Colomina, por ejemplo, nos dice que el algoritmo de Youtube tiende a aislar y radicalizar el comportamiento de quien sigue sus ediciones digitales, provocando una suerte de encapsulamiento de la persona y el grupo humano que comparte ese mismo espacio. La sobreexposición digital afecta la capacidad volitiva de las personas y nos aísla en grupos que ya no compartimos información. Esto es, las grandes tecnológicas están propiciando que desarrollemos culturas tribales cerradas en las que solo caben los que opinan de un determinado modo que al tiempo se reafirman en sus opiniones. Esto impide la comunicación cruzada, el intercambio de opiniones, la democracia participativa, en definitiva, la esencia de la plaza pública en la que nos veíamos las caras y compartíamos opiniones desde diversas perspectivas. Pero la tecnología también permite este intercambio, aunque lo oculta.

El problema es tremendamente complejo porque es difícil romper las cápsulas cerradas y es más difícil aún mostrar a sus integrantes una verdad que no sea la suya. A título de ejemplo, se nos recordó la polémica suscitada en la comparativa de asistentes a la toma de posesión de Trump frente a la de Obama de ocho años antes. Aquél insistía en afirmar que a la suya fueron muchos más que a la del demócrata. El diario New York Times publicó dos fotos del Mall de Washington comparando los asistentes de una y otra. Claramente, el célebre espacio entre el Capitolio y la estatua de Lincoln estaba completamente lleno en la toma de posesión de Obama y algo menos de medio en la de Trump. A pesar de la realidad gráfica, todavía un 13% de seguidores de éste negaban la evidente realidad por la única razón de que las fotografías habían sido publicadas por un medio próximo, a su juicio, al Partido Demócrata.

Sirva este ejemplo --en sentido contrario- para llevarnos a una increíble paradoja que Marx, Groucho, nos dejaba en Sopa de Ganso: «¿A quién vas a creer, a mí o a tus propios ojos?». Sustituir el mí por el nombre de las grandes tecnológicas que controlan el funcionamiento de nuestras vidas es un pequeño esfuerzo para tomar conciencia de la imperiosa necesidad de establecer regulaciones para auditar el manejo de los algoritmos. Y las soluciones que se apuntan, ahora que todavía estamos a tiempo, se basan en autores, entre otros, como Jaron Lanier, que fue citado por Josep Lluis Martí, y su humanismo digital en el que se abunda en la idea de que la tecnología es una instrumento al servicio de aumentar la inteligencia humana, pero no un sustituto de ella. Dando un paso más, es necesario poner la tecnología al servicio de la democracia en defensa de los valores del autogobierno, la autonomía privada, la igualdad política y la colaboración social, y no al contrario. Estas nuevas tendencias apuntan en la idea de crear un gobierno global que mediante el CrowdLaw devuelva el poder a la ciudadanía. La Inteligencia Colectiva aprovechando los algoritmos y no al revés. Evitar, dijo Lassalle, que lo que vimos el 6 de enero en Washington, que fue incitado por algoritmos en las redes, sea para nosotros el antecedente de una dictadura digital, como el Putsch de Munich de 8 de noviembre de 1923 fue el antecedente del triunfo nazi en las elecciones de 1933 en las que se inició el descenso a los infiernos.

Mientras todo esto acontece en las nubes digitales, entre tanto, aquí nos enredamos con políticas de menudeo que no se enteran de dónde está el poder de verdad.