ENTREVISTA | Sebastián Ventura Vicerrector de la UCO en transformación digital y gestión de datos

"La inteligencia artificial puede lograr desarrollos que ayuden muchísimo a la humanidad"

"Muchas de las aplicaciones que la UCO está haciendo en colaboración con la base logística del ejército en Córdoba serán de aplicación civil", asegura | Modelos predictivos de cuándo se romperá la pieza de un camión o de roturas de stockaje ayudarán a las empresas y entidades cordobesas en el futuro

Sebastián Ventura, vicerrector de transformación digital y gestión de datos, posa para la entrevista.

Sebastián Ventura, vicerrector de transformación digital y gestión de datos, posa para la entrevista. / MANUEL MURILLO

José A. Pérez Lunar

José A. Pérez Lunar

Sebastian Ventura es catedrático de Ciencias de la Computación e Inteligencia Artificial (IA) de la Universidad de Córdoba (UCO), con una tesis sobre la IA que data del año 1996. Es, además, vicerrector de la UCO en transformación digital y gestión de datos y dirige un grupo de investigación sobre inteligencia artificial. Y es, ante todo, un hombre que conoce al dedillo las investigaciones que en todo el mundo se están realizando sobre esta herramienta, la IA, que ya está transformando la sociedad, la economía y la forma de entender el mundo. Y en Córdoba hay personas, equipos y desarrollos tecnológicos a la vanguardia en este tema. De ellos sabe, y mucho, Ventura.

¿Cuánto tiempo lleva investigando sobre IA?

Desde que hice la tesis en el año 1996, 30 años aproximadamente.

La evolución de la IA ha sido bestial.

Totalmente, y en los diez últimos años de forma casi exponencial. El crecimiento desde que empezaron los desarrollos basados en computación neuronal, lo que llaman aprendizaje profundo, la verdad es que se han empezado a meter bastantes empresas grandes tipo Google, entre otras, y ha dado un revulsivo muy grande con desarrollos francamente increíbles.

En las últimas semanas, Chat GPT ha causado sensación. ¿Qué le parece?

En parte es una revolución. Chat GPT no es un sistema que piense, reproduce partes de las conversaciones, tiene su razonamiento, pero ya hay contraejemplos de gente que intenta hacerle trampas a esta herramienta, paradojas, y hay veces que le pillan. Ese razonamiento típico de los humanos no lo tiene al 100%. Pero para extraer información, redactar contenidos o hacer informes, es una fuente valiosísima. Se puede usar con fines educativos, es la verdad. Pero hay que ir buscándole la utilidad.

¿Y los limites, no? Para evitar por ejemplo plagios de estudiantes con Chat GPT.

Yo creo que hay que darle la vuelta a eso. Que el estudiante desarrolle otro tipos de destrezas que sean un poco diferentes. Es como usar la Wikipedia pero de una forma más cómoda, y con mucha más información. Si limitas al alumno que le pida a Chat GPT información sobre un tema, o le pida que le haga un trabajo, el alumno está aprendiendo poco y esforzándose poco mentalmente. Hace poco me tropecé con una compañera de universidad que le daba a los alumnos un trabajo de Chat GPT. Ella le pedía a los alumnos que hicieran un desarrollo crítico de ese escrito. De ese modo el alumno hará un esfuerzo por desarrollar cosas que no se harían con mera transmisión de información.

¿Cómo funciona el trabajo del programador, el sesgo, con Chat GPT?

Es un tema complejo. Estos sistemas aprenden a partir de los datos que se les presentan, pero tienen un proceso de aprendizaje autónomo. Hay un montón de cuestiones éticas, pero hay que regularlas. Hay un montón de terreno libre por parte de filósofos, expertos del mundo del Derecho…tienen mucho que decir analizando estas situaciones y casos de uso para ver los límites a plantear. La labor del tecnólogo, del informático o del ingeniero, es intentar hacer una herramienta que tenga el mayor potencial posible. Y que sean otras personas las que digan si es útil, o si hay que ponerles ciertos límites. Ya hay sistemas de diagnósticos clínicos sanitarios con inteligencia artificial. Conozco un ejemplo de un diagnóstico algo complicado hecho por inteligencia artificial que acertó cuando un profesional médico no lo había hecho antes. Le clavó la enfermedad. No es que Chat GPT sepa más que el médico. Pero en algunas cosas, al manejar un caudal enorme de información, su sesgo puede llegar a ser más acertado. Creo que son herramientas que pueden ayudar mucho, habrá que regularlas y definirlas, pero la ayuda la dan. Hay que plantear más lo que pueden hacer en positivo para nosotros que el daño que puedan llegar a generar, que por supuesto las hay.

¿Es por tanto optimista con el desarrollo de la IA?

Sí.

¿Cree que llegará el momento en que una IA pueda idear una trama cinematográfica o crear los planos de un puente?

Eso tendría mucha controversia. Ahora mismo los sistemas de inteligencia artificial están dentro de lo que entendemos por IA débiles. Son muy buenos para hacer una tarea pero no sirven para hacer cinco o seis tareas humanas a la vez. Chat GPT sirve para mantener una conversación, pero no es capaz de reconocer una imagen. Para eso necesitas otra IA con otros datos y otra arquitectura. Una IA general podría hacer todas las acciones que hace un ser humano más o menos igual de bien. Eso ahora mismo no existe. ¿Existirá en el futuro? Hay gente más optimista que dice que lo tendremos en 15 años. Otros que dicen que no se podrá sin ordenadores cuánticos…Forma parte de lo futurible. En mi opinión, no me atrevo a decir. Creo que se van a desarrollar sistemas capaces de hacer muchas cosas, no creo que todas. Pero vamos a asistir a avances importantes, es evidente que sí. Pero el 100% de las tareas que hace un ser humano, no me atrevo a decir que yo vaya a ver eso.

¿Puede ser la IA una solución al tema del ahorro energético? ¿Podría ser que una IA nos dé la clave de la fisión nuclear para ser autónomos energéticamente? ¿O es mucho pedirle a los robots?

Hasta donde mi conocimiento alcanza no hay IAs de ese tipo desarrolladas. Sí se ha trabajado con sistemas de inteligencia artificial que ayudan a tarificar, cambiando diariamente la tarifa en función de demandas y precios, incluso con predicciones. Sistemas de carga de coches eléctricos inteligentes también. Pero dar claves del desarrollo de la fisión nuclear…no se podría descartar en el futuro pero a día de hoy es muy complicado que se pueda llevar a la práctica.

Sebastián Ventura, vicerrector de transformación digital y gestión de datos.

Sebastián Ventura, vicerrector de transformación digital y gestión de datos. / MANUEL MURILLO

Además la IA puede equivocarse, y puede ser troleada y llevada al error.

Sí, y hay modelos de IA construidos de forma errónea. Por ejemplo, si quieres que una IA te escoja a un directivo para una empresa. Y a ese modelo le has dotado de datos de hombres blancos varones hasta 50 años, pues la mayoría de los seleccionados serán de ese perfil. Y una persona de color o una mujer lo tendrán mucho más difícil, ya que la IA no tendrá datos de esos perfiles previos. Hay mucha gente trabajando en el tema de los sesgos para que la información sea la correcta y el modelo aprenda lo que tiene que aprender.

Stephen Hawking nos alertó sobre los posibles peligros de la inteligencia artificial, ¿usted qué opina?

En sus análisis de la IA, creo que fue un poco catastrofista. A día de hoy hay muchos desarrollos de inteligencia artificial que hacen cosas mucho mejor que los seres humanos. Pero eso no quiere decir que sean inteligentes. Sino que desarrollan una destreza mucho mejor que nosotros. Si somos capaces de usar eso como una herramienta, no tendremos problemas. ¿Puede ocurrir en el futuro que haya una IA tan grande que pueda ser peligrosa? Los desarrollos a día de hoy están ya limitados por los humanos que la construyen. Si puede llegar a ser peligroso para la humanidad, un desarrollo puede ser regulado y cortado. No se sigue avanzando. Todavía la cosa está en manos de la humanidad. Se pueden lograr desarrollos que ayuden muchísimo a la humanidad. Y si vemos en el futuro que alguno pueda ser peligroso, pues le pondremos límites y frenos. Hay que tener mente amplia en este sentido. Le pondré un ejemplo.

Cuénteme.

En los foros de IA se hablaba de un ejemplo hipotético. Un coche autónomo que tiene que decidir entre arrollar a un niño o tirarse por un precipicio, matando al conductor. Solo tiene esas dos opciones y debe tomar la decisión en décimas de segundo. ¿Preserva la vida del pasajero o la del niño? Es cierto que es un dilema para la IA. ¿Pero no sería también un dilema para un conductor humano? Elegir entre tirarte por un barranco o matar a un niño inocente. Hay problemas que lamentablemente no tienen solución para el humano, pero tampoco para una IA.

Los datos de inteligencia artificial para una compañía de seguros serían súper interesantes…

Sí, eso ya se está haciendo. Los modelos actoriales están basados en eso. Antes se basaban en estadística y ahora ya meten técnicas de IA más precisas.

En Córdoba, la base logística puede ser el gran núcleo de desarrollo de la IA en la provincia, e incluso en Andalucía.

Muchas de las cosas que se están haciendo en la base logística, aunque sea de aplicación militar, también tienen una aplicación civil. Por ejemplo, un camión de transporte del ejército es similar a un camión de transporte civil. Muchos de los desarrollos de la base logística, algunos de ellos ya están trabajándose, tendrán aplicación civil. Yo mismo dirijo un proyecto de mantenimiento predictivo, que se basa en saber cuándo se va a averiar un vehículo, o romper una pieza. Eso se puede aplicar del mismo modo a un tanque o a un concesionario de coches o a una empresa de alquiler de vehículos. Disminuye los costes por reparaciones. Y hay muchos otros proyectos de la base logística de Córdoba que serán de aplicación para la sociedad. Almacenes robotizados, previsión de stockaje…Ya se usan en grandes superficies como las de Amazon, y se desarrollarán en más sectores. Se desarrollarán nuevas IAs alrededor de la base logística que serán de aprovechamiento civil.

¿Qué papel tiene la UCO dentro de este desarrollo de la IA?

En la UCO hay dos departamentos que tienen personal que investiga sobre IA, con profesores de informática. Y en total habrá seis grupos de investigación que trabajan en temas de inteligencia artificial. Dependiendo de los grupos, abordan distintos problemas. Uno trabaja sobre reconocimiento de imágenes y de posicionamiento de objetos. Nosotros, nuestro grupo, nos dedicamos a lo que es la extracción de conocimiento a partir de datos. Con muchísimas aplicaciones. Trabajamos en muchos campos, no solo los desarrollos para la base logística. Hemos trabajado con grupos de investigación del Imibic en temas de diagnóstico médico. Hay otros compañeros que trabajan también con el Reina Sofía para el modelado de donantes y receptores de trasplantes. La verdad es que, en general, el nivel que hay, considerando el tamaño de la UCO, no está demasiado mal. Hay unas 40 personas trabajando en distintos proyectos de investigación.

Suscríbete para seguir leyendo