Varios estudios han alertado ya sobre el enorme poder de las redes sociales no solo para la privacidad sino para la manipulación de personas y colectivos. Con finalidades políticas o comerciales, como han demostrado los casos de noticias falsas o los experimentos de manipulación de sentimientos. Pero Facebook Live se ha revelado, además, como una herramienta muy peligrosa para congregar la atención mundial. Es tristemente famoso el caso de la adolescente Nakia Venant, de 14 años, que se suicidó en directo a través de la red social tras comentarios burlones de su madre, con quien tenía una relación tormentosa y que restó credibilidad a las amenazas de su hija. Sus amigos, en cambio, no se lo tomaron así y llegaron a avisar a la policía, que no pudo hacer nada para evitarlo.

Tras otros casos de muertes autoinducidas en directo, la reacción de Facebook ha acabado siendo lanzar una herramienta específica para detectar este tipo de acciones. Y aplicar el filtro al vídeo, aunque no se sabe con qué criterios. En principio, solo lanza una advertencia al usuario que está anunciando a otros sus intenciones y le insta a pedir ayuda a un amigo o a oenegés. No está claro a quién avisará la red, si a la policía o también a su círculo más inmediato.

Pero no es la única red social que lanza alertas. A raíz del caso de la Ballena Azul y otros grupos de la muerte, que instaban a sus usuarios, generalmente adolescentes, a suicidarse tras una serie de retos destinados a romper los nervios, en Twitter, ya saltaban advertencias automáticas cuando se buscaban determinadas etiquetas relacionadas con esos juegos. También en Instagram, propiedad de Facebook, se han implantado filtros similares. Pero no han pasado de ahí. Nada que ver con el centenar de indicadores como sugiere Facebook que va a utilizar en su detección.

Gestionar la imprecisión

Los tecnólogos advierten de que para que estos sistemas de detección sean realmente eficaces han de ser sutiles y saber gestionar las imprecisiones y las incertidumbres en los rastros que van dejando los usuarios por internet, lo que se conoce como "la huella digital". En palabras del investigador Martin Hilbert, "no hay que confundir la huella con el zapato" y hay que ser cuidadosos con los falsos positivos o negativos.

"Ya hay sistemas comerciales de detección de intenciones, refiriéndose a si un cliente quiere comprar un producto o va a abandonar nuestro servicio, pero el tema se complica si además del texto, o lugar del texto, se deben tener en cuenta otras variables", afirma Julio Villena, director técnico de Meaning Cloud, que hacen software comercial de inteligencia artificial aplicado a la gestión empresarial.