Reconocer a una persona por su rostro ya es algo que hacen las máquinas mejor que los humanos. La tecnología ha evolucionado tanto que «por la cara» se puede acceder a un avión (Air Europa o Iberia), pagar facturas (Banc Sabadell, Caixabank), abrir un móvil (Apple), una puerta (control de accesos) o evitar una cola. Pero también las máquinas pueden, gracias a la inteligencia artificial, conocer estados de ánimo o enfermedades, y aventurar las intenciones de las personas.

Algunas de estas aplicaciones convertidas en servicios son legales y otras pueden no serlo tanto. Por ello, organismos como el Consejo de Europa o el Tribunal Supremo de EEUU debaten estos días cuáles son los límites de la inteligencia artificial aplicada a la investigación biométrica. Y en ese debate participan desde gobiernos y juristas a usuarios, universidades, científicos y empresas como Facebook, Google, Amazon o Apple.

Solo para la Unión Europea hay en estos momentos cuatro grupos de expertos elaborando informes y el Consejo de Europa inaugura hoy lunes un foro para intentar clarificar una posición común sobre la inteligencia artificial tras el informe de un grupo de expertos.

«Más que una regulación exhaustiva, la UE está intentando definir un marco ético y un sistema de certificación de la inteligencia artificial que haga que resulte confiable. Como una ISO de la inteligencia artificial que permita crear un marco de confianza. El problema está en que hay una parte inexplicada de esos sistemas, las llamadas cajas negras, que hacen muy difícil aplicar derechos como el consentimiento o la reclamación», señala Itziar de Lecuona, subdirectora del Observatorio de Bioética de la Universitat de Barcelona.

GUERRA ENTRE GIGANTES / Por una parte es difícil detallar a un usuario qué datos se le van a tomar y para qué, porque los sistemas avanzan casi solos. Y además, para que un sistema de inteligencia artificial sea perfecto, necesitaría los datos de todos los humanos, recuerda Andreu Veà, exembajador digital de España. «Es la competencia que subyace entre Google y Amazon con sus asistentes de voz, que comienzan a incorporar también las pantallas: quién ha visto u oido a más personas». O de Facebook y Apple con su reconocimiento de fotos y huellas.

Amazon incluso comercializa un servicio para que las pymes puedan implementar reconocimiento facial usando su tecnología, basado en lo que han aprendido con sus usuarios. Es el Amazon Rekognition y forma parte de su Amazon Web Services. Google Cloud no lo ha hecho todavía, porque esperan, dicen, a que se pronuncien los legisladores sobre el caso de los usuarios de Illinois contra Facebook, que está en el Tribunal Supremo de EEUU esperando que decida si podía identificar de forma indiscriminada a todos sus usuarios en las fotos ajenas, a través de las sugerencias de etiquetado, que ya ha restringido.

El Reglamento Europeo de Protección de Datos, vigente desde mayo del 2018 pero pendiente de su aplicación en muchas de las legislaciones estatales, prohíbe identificar a una persona por un único rasgo biométrico, excepto si esta da su consentimiento.

CONTROL DE FRONTERAS / Por eso el reconocimiento facial comienza a ganar clientes en el control de fronteras, desde EEUU a Israel, o en control ciudadano en China. España instaló este verano 35 cámaras que permiten identificar sospechosos, sobre todo de terrorismo yihadista, entre las 60.000 personas que cada día cruzan la frontera en Ceuta y Melilla. Según un portavoz de Interior «el sistema está solo en pruebas».

«Se ha hecho tras un informe del Supremo, que ha vetado instalarlas donde hubiera menores o se pudiera vulnerar la privacidad de las personas», explica Miguel Mendoza, portavoz de Thales España, responsables del proyecto. En Ceuta se ha implantado también en otras zonas, como el conflictivo barrio del Príncipe. «Solo se identifica a los sospechosos y los datos se borran en un mes». Eso sí, si estás en la lista negra, los registros se mantienen.

Sistemas similares se instalan cada vez más en campos de fútbol, empresas, edificios oficiales, casinos o centros comerciales, o para seleccionar donantes en clínicas de reproducción asistida.

Las cámaras, aunque cada vez más sofisticadas, están por debajo de la resolución que ofrece un móvil de última generación (16 mpx). El software distingue al sujeto incluso si lleva gafas, peluca o máscaras. «Pueden identificar solo a humanos. Si le introduces imagen o incluso solo la altura, complexión, color de pelo y ojos de un sospechoso te ofrece los resultados más cercanos», explica Elena Mulero, directora de seguridad de Protimsa, los distribuidores en España de Avigilon.

«El consentimiento no puede ser el único requisito ni la única válvula de privacidad, porque eso es la aplicación de un concepto analógico al mundo digital. La inteligencia artificial puede facilitar tomar mejores decisiones. Es una oportunidad buenísima», sostiene De Lecuona.