Max Tegmark, profesor del MIT y director del Future of Life Institute (Instituto para el Futuro de la Vida), es de los que piensan que la inteligencia artificial puede presentar tanto grandes oportunidades como serios riesgos para el futuro de la humanidad. En cuestión de un par de décadas, una generación de nuevos entes con IAG (inteligencia Artificial General) superarán la capacidad de nuestros cerebros. Y esos entes podrán tener dos tipos de relación posible con nosotros. En una visión positiva, legiones de robots superinteligentes trabajarán por nosotros y resolverán todos nuestros problemas y necesidades. Pero si la cosa se tuerce, como ya ocurriera, por ejemplo, tras el descubrimiento de la energía nuclear, también es posible que esos seres inteligentes evolucionen de forma autónoma e independiente con su propio código ético y unos objetivos diferentes a los de los seres humanos. Es lo que se conoce como vida 3.0. Frente a ellos, la humanidad podría perder su protagonismo y aparente centralidad en la historia del universo, e incluso los seres humanos podríamos acabar quedando obsoletos y perder el carácter «humano» por defecto frente a esa nueva especie.

Ya otros grandes científicos, como Stephen Hawking, dieron la voz de alarma sobre el riesgo de recrear el mito de Frankenstein y perder el control sobre nuestro destino. Para ser justos, hay que recordar que este peligro no es exclusivo de las nuevas tecnologías. La historia del conocimiento está plagada de singularidades, de esos momentos en los que una puerta se abre hacia lo desconocido y ya no es posible volver atrás y cerrarla. Sin saber cómo y por qué, lo nuevo nos atrapa y nos transforma irreversiblemente sin que sea para bien o para hacernos más dichosos. Así sucedió con la agricultura y también con las distintas revoluciones industriales, y sobre todo con la ciencia, el modo más eficaz y eficiente de conocimiento. Una vez mordida la manzana de la ciencia, los descubrimientos e inventos no hacen más que acelerarse y esas puertas de no retorno se abren y se cierran tras de nosotros empujándonos hacia un destino que se vuelve cada vez menos previsible.

Para evitar el colapso de la humanidad, si es que eso es lo que deseamos y si este objetivo es ya posible con la trayectoria que llevamos, sería necesario no jugar a ensayo y error, como suele jugarse en la ciencia. Porque el primer experimento con un resultado imprevisible podría provocar que nuestro destino dejase de estar en nuestras manos. Como sugieren Tegmark y otros grandes sabios, deberíamos pensar y discutir mucho qué queremos como humanidad, cuáles son nuestros objetivos y prioridades. Para empezar, no deberíamos dejar que una empresa o un estado desarrollen por sí solos una nueva especie de seres que pudieran apoderarse de la humanidad. Y en este punto vamos ya con mucho retraso. Los ciudadanos libres deberíamos participar en una reflexión global sobre este asunto y en el proceso de toma de decisiones, de modo que los pasos que se den respondan al sentir de la mayoría.

Quizás sea ingenuo pensar que la evolución, irreflexiva por naturaleza, pueda estar ahora en nuestras manos. Nunca lo estuvo. Puede que la decisión ya esté tomada, como siempre ha ocurrido en la historia del mundo, y solo nos quede contar lo que pasa y adaptarnos a lo que ocurra. Ahora ya vivimos nuestras vidas 2.0 de forma natural, como si siempre hubiese sido así: Facebook, Twitter, Instagram, WhatsApp. Vivimos en red una vida virtual la mitad de nuestro tiempo. Preferimos el video porno en su infinita oferta por Internet, hasta el extremo de volvernos insensibles a la carne de verdad.

Por el momento, yo sigo prefiriendo un verano 1.0, esta vida sin programar, húmeda y sucia, imperfecta, emocionante e imprevisible. El cosquilleo de la arena en las plantas de los pies, el aroma a espeto, el fragor de las olas en la distancia, un sol caliente sobre los párpados cerrados, tu mano izquierda rozando mi mano derecha en silencio.

* Profesor