¿Deben los robots inteligentes tener algún tipo de estatus legal con derechos y obligaciones como los seres humanos? ¿Quién debe hacerse responsable de sus errores o de los daños provocados a terceros? ¿Es necesario crear un marco legal para evitar que puedan llegar a reemplazar algún día a los trabajadores? ¿o que incorporen una especie de botón de la muerte que permita desactivarlos en caso de que se vuelvan paranoicos o asesinos como le ocurrió hace más de cuatro décadas a la supercomputadora HAL en la película de ficción '2001:, Una Odisea del espacio'?

La inteligencia artificial ha abierto la puerta a nuevos mercados y oportunidades pero también plantea numerosos interrogantes que la Eurocámara quiere empezar a despejar. Su comisión de asuntos jurídicos ha aprobado esta semana, por 17 votos a favor, 2 en contra y 2 abstenciones, un informe sobre este ámbito -que se votará en pleno el mes próximo- en el que reclama a la Comisión Europea propuestas para empezar a regular este sector en pleno auge.

Las estimaciones actuales apuntan a la existencia de 1,7 millones de robots en uso en todo el mundo. Ya sean brazos utilizados en operaciones médicas, aparatos para ordeñar vacas, robots industriales, drones o sistemas de conducción inteligentes controlados por ordenador. Entre el 2010 y el 2014, las ventas de robots aumentaron de media un 17%. Solo en el 2014 lo hizo un 29% y un 15% en el 2015, según el último informe de la federación internacional de robótica que sitúa a China como el principal mercado, por delante de Corea del sur, Japón, Estados Unidos y Alemania.

AL SERVICIO DE LOS HUMANOS

“Hay un creciente número de áreas afectadas por la robótica” pero, “para responder a esta realidad y asegurar que los robots están y siguen estando al servicio de los humanos, necesitamos urgentemente crear un marco legal europeo robusto”, defiende la ponente, la eurodiputada luxemburguesa Mady Delvaux-Stehres. Su conclusión, plasmada en el documento, es rotunda. Las reglas actuales son “insuficientes” y hay que actuar.

“La humanidad se encuentra a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial” y es “vital” prepararse. De lo contrario, alertan, en unos decenios la inteligencia artificial podría superar la capacidad intelectual humana y, de no estar preparados, “podría suponer un desafío para la capacidad de la humanidad de controlar su propia creación” y, de paso, “la capacidad de ser dueña de su propio destino y garantizar la supervivencia de la especie”.

DEFINIR LO QUE ES UN ROBOT

Para anticiparse a este escenario, proponen en primer lugar definir qué es un robot autónomo. Partiendo de las leyes del escritor Isaac Asimov -no debe hacer daño a un ser humano, tiene que obedecer las órdenes que recibe de una persona y ha de proteger su propia existencia siempre que no entre en conflicto con las dos primeras reglas-, plantean la siguiente definición: si funciona mediante sensores o intercambio de datos, si tiene capacidad de autoaprendizaje, si tiene un soporte físico y si adapta su comportamiento y acciones al entorno.

Los eurodiputados también piden a Bruselas que cree una agencia europea sobre robótica e inteligencia artificial que aporte experiencia técnica, ética y reglamentaria, así como un código éticopara regular la responsabilidad y garantizar unos estándares. Por ejemplo, consideran que los ingenieros deberían incluir, a la hora de diseñar androides, lo que llaman “botones de la muerte” para poder desactivarlos en caso de rebelión. También opinan que una futura legislación debería acotar la utilización de los robots asistenciales, porque sustituirlos por personas podría “deshumanizar la prestación de cuidados” médicos y definir los requisitos mínimos que debe exigir un cirujano para utilizar robots quirúrgicos.

REGLAS URGENTE PARA COCHES SIN CONDUCTOR

Pero si hay un ámbito en el que es “urgente” armonizar las reglas es en el de los coches sin conductor -como los que desarrolla Google o los semiautónomos de Tesla-, para evitar los potenciales problemas ante accidentes relacionados con este tipo de vehículos. Como solución, plantean un seguro obligatorio para los fabricantes y un fondo de compensación para cubrir las reclamaciones por daños de robots sin seguro. Además, en el caso de los robots más sofisticados, como es el caso de aquellos capaces de tomar decisiones de forma autónoma, recomiendan dotarles de un estatus legal específico como“personas electrónicas”.

“Cuanto más autónomos sean los robots, menos se les podrá considerar simples instrumentos en manos de otros agentes (como el fabricante, propietario o usuario)” y por eso “la normativa general sobre responsabillidad resulta insuficiente. Es cada vez más urgente abordar si los robots deben tener personalidad jurídica”, recuerdan.