¿Deben los robots inteligentes tener algún tipo de estatus legal con derechos y obligaciones como los seres humanos? ¿Quién debe hacerse responsable de sus errores o de los daños provocados a terceros? ¿Es necesario crear un marco legal para evitar que puedan llegar a reemplazar algún día a los trabajadores? ¿O que incorporen un botón de la muerte que permita desactivarlos si se vuelven paranoicos o asesinos, como le ocurrió hace más de cuatro décadas a la supercomputadora HAL en 2001: una odisea del espacio?

La inteligencia artificial ha abierto la puerta a nuevos mercados y oportunidades, pero también plantea numerosos interrogantes que la Eurocámara quiere empezar a despejar. Su comisión de asuntos jurídicos aprobó el jueves pasado, por 17 votos a favor, 2 en contra y 2 abstenciones, un informe sobre este ámbito -que se votará en pleno el mes próximo- en el que reclama a la Comisión Europea propuestas para empezar a regular este sector en auge.

VENTAS EN AUMENTO / Las estimaciones actuales apuntan a la existencia de 1,7 millones de robots en uso en todo el mundo. Ya sean brazos utilizados en operaciones médicas, aparatos para ordeñar vacas, robots industriales, drones o sistemas de conducción inteligentes controlados por ordenador. Entre el 2010 y el 2014, las ventas de robots aumentaron de media un 17%. Solo en el 2014 lo hizo un 29% y un 15% en el 2015, según el último informe de la federación internacional de robótica, que sitúa a China como el principal mercado, por delante de Corea, Japón, EEUU y Alemania. «Hay un creciente número de áreas afectadas por la robótica» pero, «para responder a esta realidad y asegurar que los robots siguen estando al servicio de los humanos, necesitamos urgentemente crear un marco legal europeo robusto», defiende la eurodiputada luxemburguesa Mady Delvaux, responsable del informe.

«La Humanidad está a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial» y es «vital» prepararse. De lo contrario, alerta el documento, en unos decenios la inteligencia artificial podría superar la capacidad intelectual humana y, de no estar preparados, «podría suponer un desafío para la capacidad de la humanidad de controlar su propia creación» y, de paso, «la capacidad de ser dueña de su propio destino y garantizar la supervivencia de la especie».

Para anticiparse a este escenario, los artífices del informe proponen en primer lugar definir qué es un robot autónomo. Partiendo de las leyes del escritor Isaac Asimov -no debe hacer daño a un ser humano, tiene que obedecer las órdenes que recibe de una persona y ha de proteger su propia existencia siempre que no entre en conflicto con las dos primeras reglas-, plantean la siguiente definición: si funciona mediante sensores o intercambio de datos, si tiene capacidad de autoaprendizaje, si tiene un soporte físico y si adapta su comportamiento y acciones al entorno.