Corinna Cortes es la máxima responsable de Google Research en Nueva York, la división de investigación del gigante del buscador. Más de un millar de personas trabajan en la empresa investigando sobre algoritmos, lenguaje natural, procesamiento de datos, seguridad, inteligencia artificial y 'machine learning' (sistemas que aprenden solos). Muchas de sus investigaciones, después, se implementan en los productos de Google.

¿Qué es exactamente Google Research?

Es la división de Google de que trabaja en proyectos de investigación. Solo en Nueva York somos más de 100 personas, y hay equipos en Londres, California, Suiza... Principalmente son equipos formados por doctores (PhD), pero también trabajamos con un equipo de ingenieros para implementar los estudios.

¿Son ustedes quienes tienen ideas y las investigan o la empresa les propone problemas?

Todo lo que hacemos está relacionado con las necesidades del producto. Hablamos con los ingenieros, vemos qué problemas tienen, proponemos soluciones, las implementamos, vemos si funcionan... Después publicamos los 'papers’, y tenemos una gran cantidad de librerías de código abierto para que las universidades se puedan beneficiar.

Póngame algunos ejemplos de proyectos en que han trabajado.

Uno de los más actuales es el algoritmo de reconocimiento de voz, el que se usa en muchos de los productos de Google. Definitivamente, cada vez hay y habrá más relación con la voz, el diálogo. Ahí está Alexa, Google Home, Siri... Estamos aún en una etapa muy inicial, y vamos a ver muchos avances. Pero la voz no será la única forma como nos comunicaremos: están las imágenes. Los jóvenes ya no escriben 'e-mails', no se envían mensajes. Se comunican por fotos, por voz, por vídeos... La voz y la imagen sustituirán al texto. El texTo como elemento de comunicación con las máquinas irá muriendo poco a poco.

Pero el texto aún se usa...

Sí, claro, de hecho nuestro principal producto es un buscador de texto. Pero creo que en 10 años será muy diferente, probablemente solo hablaremos con el ordenador, o le enviaremos una imagen y tendremos respuesta. Una imagen vale más que mil palabras.

¿Cuál es el principal reto que tienen?

La palabra ‘diálogo’ es clave: cómo vamos a interactuar con el ordenador. Actualmente todo se basa en unas palabras clave, y a partir de esas palabras la máquina deduce qué quiere el usuario. Sin embargo, en realidad el usuario ha generado antes mucha más información que es muy útil para saber qué quiere. Creo que ese es el principal reto: aprovechar esos datos.

¿Y qué pasa con la privacidad?

Es algo que nos tomamos extremadamente en serio. Nos aseguramos de que tu información está almacenada completamente segura, todo está encriptado. Pero tiene que haber un balance entre personalización y privacidad. Queremos ayudar al usuario lo mejor que podamos basándonos en las interacciones que ha hecho en los últimos 30 minutos, ver qué es relevante para él. Pero eso no significa que violemos tu privacidad, sino que es algo que queda entre tú, Google y la consulta, solo eso, nadie más.

Pero muchas veces el usuario no sabe qué datos ha generado ni dónde están...

Toda la comunidad está esforzándose, desde la industria al mundo académico, en educar a la gente sobre los datos. Trabajamos juntos en definir cómo deben ser protegidos para que el usuario se sienta seguro. El usuario de Google ya tiene un gran control sobre sus datos: sabe qué datos tenemos, puede borrar su historial... No hay secretos.

¿Qué es exactamente el 'machine learning' y cómo nos va a cambiar?

Es el uso de los datos para hacer predicciones. Si quieres enseñar a un ordenador que un objeto es una silla, coges 1.000 millones de imágenes de sillas (también de no sillas) y le 'enseñas' que 'esto' es una silla con parámetros. En Google usamos el machine learning para mejorar los coches sin conductor. Pero también se usa en el descubrimiento de nuevas medicinas o en la personalización de tratamientos, en predecir cambios en el clima, en evitar accidentes en las fábricas, en tu pulsera cuantificadora... Todo son datos procesables para ayudarte a tener una vida mejor.

¿Es mejor que las decisiones las tome una máquina?

No tiene por qué ser mejor, pero la ventaja es que el ordenador puede tener en cuenta más factores, por lo que es la forma más rápida de llegar a una solución mejor.

Reconocimiento de voz y machine learning se unen en asistentes como Google Home. ¿Es el futuro?

Vamos a ver cada vez más asistentes en los hogares. Google Home va a incorporar muchas más funciones, y podrá ayudarte a organizar mejor tu día a día. El buscador de Google ha llegado a todos los hogares, quizá los asistentes también lo hagan.

Tanta inteligencia artificial y 'machine learning'... ¿Debemos preocuparnos por que un día las máquinas hablen entre ellas y monten una revolución?

No creo que tengamos que preocuparnos por eso, porque cada máquina tiene una manera diferente de procesar y 'hablar'. No creo que vaya a pasar nada por el estilo en el futuro cercano.