Casi un año después de la implantación obligatoria del Reglamento Europeo de Protección de Datos (RGPD), se hacen notar las voces que ponen en duda su efectividad real para proteger derechos de los ciudadanos europeos, como la privacidad o la igualdad, frente a los avances tecnológicos. La inteligencia artificial, el aprendizaje mecánico ('machine learning') y el 'big data' con su recogida de datos masivos han provocado nuevas preguntas que han de entrar forzosamente en el campo de la ética.

“La ética empieza donde termina el derecho. Pedimos que nos expliquen cómo se van a usar nuestros datos, pero no qué impacto va a tener el uso de estos datos en la sociedad; por ejemplo, con un sistema de videovigilancia masiva”,señalaba el pasado viernes Alessandro Mantelero, profesor asociado en el Politécnico de Turín y consultor del Consejo de Europa sobre inteligencia artificial.

Para Manterelo, el tiempo que se ha tardado en tener a punto el RGPD (tramitado durante años, fue aprobado en abril del 2016 y entró en vigor dos años después) hace que haya quedado desbordada por tecnologías que son capaces de captar, deducir y extraer mucha más información de la que inicialmente prevé el usuario que acepta ver tratada su información.

“Los legisladores no siempre tienen una idea clara del marco tecnológico y los programadores no tienen bastante conocimiento de la parte legal o social, o de los sesgos que pueden generar sus algoritmos porque la máquina ha aprendido sola”, recuerda. Son conocidos los casos de discriminación por sexo o raza a la hora de seleccionar candidatos a un puesto de trabajo, o para intentar manipular opiniones políticas, como los que denunció Cathy O’Neil.

CONSENTIMIENTO Y DECISIÓN

“El RGPD habla mucho del consentimiento pero este solo funciona si las personas entienden lo que se les pide. Muchas veces se asiente porque te convence el márketing general de la empresa, pero no porque sepas qué hacen”, señala Manterelo. “Cuando un sistema es complejo, no todo se puede quedar en la decisión individual”.

Multas como las que imponen la Comisión Europea o la autoridad francesa de protección de datos a Google o Facebook por el uso abusivo de la información de los usuarios tienen efecto disuasorio, pero no afectan a los usuarios, señala el profesor italiano.

“No sé si los usuarios van a aceptar cambiar el modelo de la gratuidad de los servicios. Cuanto menos pagas, más explotan tus datos. Los bancos, por ejemplo, podrían hacer un uso intensivo de la inteligencia de datos, pero no lo hacen porque hay competencia y temen que el cliente se les vaya. Lo usan para prevenir el fraude pero eso es una pequeña parte de lo que podrían hacer. En cambio nadie quiere pagar para usar redes sociales”, advierte.

COCHE AUTÓNOMO

A su juicio, "la reglamentación de la inteligencia artificial ha de pasar por una reglamentación sectorial, porque los principios ya los tenemos. Hay que centrarla en usos militares, médicos, financieros… Cada una tiene leyes y principios diferentes”. Un caso es el del coche autónomo. “En España o en Italia funciona mal porque hay muchas calles pequeñas. Habría que crear carriles especiales, sistemas de asistencia o un contrato, que la forma de trasladar la responsabilidad al usuario”.

En protección de datos, hay que meditar las cosas antes, afirma. "Históricamente, tiene su origen en el riesgo de control social y ahora volvemos a ello aunque con participación privada".