ICML es una de las reuniones más relevantes del mundo para investigadores dedicados al estudio y el avance del aprendizaje automático, una de las ramas esenciales de la inteligencia artificial. La versión 2025 se llevará a cabo en Canadá y contará con la participación de varios trabajos desarrollados por académicos del IMC y que abarcan desde redes neuronales de grafos hasta un nuevo algoritmo para problemas de decisión Markovianos.
En 1980, la Universidad Carnegie-Mellon en Pittsburgh (EE.UU.) fue sede de la primera versión de la Conferencia Internacional de Aprendizaje Automático (ICML). Con el paso de los años, el evento se convertiría en una de las reuniones más importantes de profesionales dedicados al avance de esta rama de la inteligencia artificial, también conocida en inglés como “machine learning”.
La versión 2025 se realizará entre el 13 y el 19 de julio en Vancouver, Canadá. Tal como en ediciones anteriores, se espera que el evento vuelva a ser la instancia ideal para presentar investigaciones de vanguardia sobre distintas áreas del aprendizaje automático, el cual hoy se relaciona estrechamente con disciplinas como la estadística y la ciencia de datos. A estas áreas se suman campos de aplicación tan importantes como la visión artificial, la biología computacional, el reconocimiento de voz y la robótica.
Es en este contexto que varios trabajos de investigadores del Instituto de Ingeniería Matemática y Computacional fueron aceptados para ser presentados. “ICML es una de las tres conferencias en machine learning en donde todos los que hacen investigación en esta área quieren publicar, junto con Neurips e ICLR. Todos los grandes centros de investigación de universidades y empresas de Estados Unidos, China y Europa intentan participar”, explica Juan Reutter, académico del Instituto de Ingeniería Matemática y Computacional (IMC UC) en cargo compartido con el Departamento de Ciencia de la Computación UC (DCC UC) y coautor de uno de los papers aceptados en Vancouver.
El trabajo donde participa el director del Instituto Milenio Fundamentos de los Datos (IMFD) se titula “How Expressive are Knowledge Graph Foundation Models?” y fue desarrollado junto a Xingyue Huang (U. de Oxford), Pablo Barceló (director del IMC UC), Michael M. Bronstein (U. de Oxford), İsmail İlkan Ceylan (U. de Oxford), Mikhail Galkin (Google) y Miguel Romero Orth (DCC UC).
Juan Reutter.
Tal como indica el título del paper, el estudio trata sobre redes neuronales de grafos. Estos últimos corresponden a modelos que representan relaciones entre elementos de un conjunto. Reutter señala que, específicamente, la investigación realizada por él y sus colegas se centra en “modelos de redes que puedan usarse en grafos que sean completamente distintos a los grafos que usamos para entrenarlas. Algo equivalente a ChatGPT, por ejemplo, que se usa hoy en día para cualquier tipo de texto”, indica Reutter. El académico agrega que él y sus colegas proponen un “marco teórico para el diseño de estas redes, y, tal vez más importante, damos técnicas matemáticas que nos permiten entender el poder de estas redes, y en particular cuáles son mejores que otras”.
El profesor detalla que esta línea de investigación, enfocada en redes neuronales de grafos que puedan generalizar a cualquier dominio, está cada vez más en boga. “Veo a la gente usando nuestro estudio para entender cómo diseñar estas redes en contextos prácticos, los que se ven cada vez más importantes. Por otro lado, nos acerca más a poder lograr una especie de ChatGPT para grafos, que es como el santo grial del área de machine learning sobre grafos”, indica Reutter.
Investigación interdisciplinaria
Otro de los papers aceptados en ICML 2025 se llama “Ehrenfeucht-Haussler Rank and Chain of Thought” y tiene como coautores a Pablo Barceló, Alexander Kozachinskiy (Centro Nacional de Inteligencia Artificial, CENIA) y Tomasz Steifer (Institute of Fundamental Technological Research of the Polish Academy of Sciences). Kozachinskiy, quien fuera postdoctorante del IMC UC al igual que Steifer y hasta hoy mantiene lazos de investigación con el Instituto, explica que la aceptación del paper en ICML es un gran logro.
“Es una conferencia de rango A* y de este modo es una de las conferencias más prestigiosas en el área de machine learning. Esta edición de ICML tuvo 12.107 artículos enviados, y sólo 3.260 fueron aceptados”, señala el investigador de CENIA.
Alexander Kozachinskiy.
Kozachinskiy precisa que en el artículo él y los demás coautores han alcanzado a “relacionar la teoría clásica de ‘Pac learning’ (‘aprendizaje correcto probablemente aproximado’) con el desarrollo reciente de la inteligencia artificial”. Es decir, agrega, han “demostrado que una noción de rango que fue definida en un trabajo clásico de Erenfeucht y Haussler (1989) se puede también definir a través de modelos grandes de lenguaje. Así, hemos encontrado un vínculo bastante sorprendente entre dos líneas de investigación en machine learning”.
A futuro, comenta Kozachinskiy, lo ideal sería “encontrar más vinculaciones entre el área de inteligencia artificial con otras más desarrolladas de las matemáticas y la ciencia computacional. De esta manera, podríamos profundizar la investigación de modelos grandes de lenguaje e iluminar más la significación de las herramientas clásicas”.
Un tercer estudio aceptado en ICML 2025 corresponde al paper titulado “Near-optimal sample complexity for MDPs via anchoring”. La investigación fue realizada por Roberto Cominetti (IMC UC / Departamento de Ingeniería Industrial y Sistemas UC), Jongmin Lee (Universidad Nacional de Seúl, Corea del Sur) y Mario Bravo (Universidad Adolfo Ibáñez).
“El trabajo propone un nuevo algoritmo para problemas de decisión Markovianos (MDPs), vale decir, para determinar políticas de control óptimo para sistemas dinámicos en tiempo discreto cuya evolución temporal es aleatoria y puede ser modelada mediante una cadena de Markov”, señala Cominetti.
El investigador explica que la principal contribución del estudio se enfoca en el uso de “iteraciones de tipo Halpern con reducción de varianza mediante muestreo de la cadena, y en que el objetivo que se persigue es el de maximizar el pago promedio de largo plazo”. Además, apunta, el método propuesto es el “primer algoritmo que no requiere estimaciones a priori de la solución óptima, y cuya complejidad computacional alcanza las cotas inferiores teóricas óptimas en todos los parámetros del modelo, salvo por una complejidad cuadrática en lugar de lineal respecto de la norma de la solución. El trabajo también extiende la metodología para el caso en que el objetivo es maximizar los pagos descontados”.
Roberto Cominetti.
Cominetti añade que el artículo deja abierta la pregunta de si algún método basado en iteraciones de Halpern logra alcanzar las cotas óptimas de complejidad en todos los parámetros: “Otro desafío consiste en adaptar la metodología al caso de control en tiempo real donde solo es posible observar la evolución de la cadena de Markov pero no es posible obtener muestras de la misma. Un tercer desafío consiste en combinar la metodología con métodos de aproximación para resolver problemas con espacio de estado de alta cardinalidad”. En cuanto a las posibles aplicaciones, el académico señala que son numerosas: “Actualmente estamos estudiando una aplicación a problemas de asignación para sistemas de pick-and-delivery con demandas aleatorias, como el sistema de radiotaxis en un contexto urbano”.
En tanto, el último estudio aceptado se llama “Beyond Minimax Rates in Group Distributionally Robust Optimization via a Novel Notion of Sparsity” y fue desarrollado por Quan Nguyen (University of Victoria, Canadá), Nishant Mehta (University of Victoria) y Cristóbal Guzmán (IMC UC). En cuanto a este paper, los autores señalan: “Un buen rendimiento en diferentes subpoblaciones de datos y la robustez ante cambios en la distribución durante las pruebas son dos de los objetivos más importantes en la creación de modelos de aprendizaje automático. Estos objetivos son especialmente importantes para los modelos que toman decisiones que podrían tener impactos sociales y de seguridad”.
Cristóbal Guzmán.