Facebook extenderá su software de inteligencia artificial para reconocer las tendencias suicidas a otros idiomas más allá del inglés, después de probarlo en Estados Unidos con éxito, asegura la empresa. Sin embargo, dejará fuera a la Unión Europea por "sensibilidades", dijo.

La compañía de Mark Zuckerberg comenzó a probar el reconocimiento de patrones de lenguaje para conductas que pudieran detectar suicidio el pasado mes de marzo, tras escanear frases de millones de artículos y comentarios.

La empresa no ha explicado detalles técnicos del programa, aunque ha puesto como ejemplo la búsqueda de determinadas frases que pueden hacer que salten respuestas como "¿Estás bien?" o "¿Puedo ayudarte?". Si el programa detecta a un potencial suicida, alerta a un equipo de trabajadores de Facebook especializados en manejar este tipo de situaciones.

El sistema sugiere recursos al usuario o a sus amigos como una línea telefónica de ayuda.

Ayuda en directo

El vicepresidente de producto de Facebook, Guy Rosen, asegura a la agencia Reuters que la compañía ha decidido extender el uso del software a otros idiomas por los buenos resultados en EEUU. Durante el mes pasado, detectaron un centenar de casos potenciales. "La velocidad realmente importa. Tenemos que ayudar a la gente en directo", afirma.

El año pasado, cuando Facebook implantó un sistema para retransmisiones de vídeo, Facebook Live, hubo varios casos de personas que lo usaron para suicidarse en directo. Algunas de ellas, adolescentes, sin que se parara la retransmisión en ningún momento o los usuarios intentaran frenarlo. También el juego suicida de la Ballena Azul se difundió a través de grupos de Facebook más allá de Rusia.

Ante las críticas, el pasado mayo la compañía contrató a más de 3.000 personas para monitorizar el vídeo y otro contenido.

Multa en Europa

Rosen no quiso dar a Reuters el nombre de los países en que Facebook está implantando el sistema de reconocimiento de software aunque afirmó que se usará "en todo el mundo, excepto en la Unión Europea por las sensibilidades, que declinó comentar", según la agencia de noticias. Facebook ha tenido problemas con su política de datos con las autoridades europeas en casos como el de Whatsapp, que le supuso una multa millonaria.

Otras compañías como Google o Twitter ya disponían de sistemas para intentar prevenir suicidios. El buscador de Google presenta un número de teléfono de una línea de ayuda a los suicidas en respuesta a ciertas búsquedas.

Hasta ahora, según Reuters, Facebook solo había usado software de reconocimiento de patrones para cazar pederastas, escaneando conversaciones entre adultos y niños, y la compañía a veces contactaba a las autoridades cuando detectaba lenguaje inapropiado. Pero puede ser mucho más difícil justificar que escaneen conversaciones en otras situaciones, asegura Ryan Calo, profesor de derecho de la Universidad de Washington a Reuters. "Una vez que abres la puerta, puedes preguntarte qué otras cosas pueden estar buscando".