Proyectos
En diversos problemas en ciencia e ingeniería, tales como formación de imágenes biomédicas, exploración geológica, meteorología, astronomía y dispersión inversa de ondas, entre otros, se dispone de información indirecta acerca de un objeto o magnitud física de interés. En esta situación es natural preguntar, ¿es posible caracterizar el objeto de interés? Y, de ser esto posible, ¿cómo es posible caracterizar el objeto de interés de manera eficiente a partir de la información disponible?
El área de Problemas Inversos tiene como objetivo desarrollar y aplicar las herramientas matemáticas y computacionales que nos permiten dar respuesta a estas preguntas.
La solución a un problema inverso comienza por modelar matemáticamente el problema directo, esto es, el proceso físico que relaciona el objeto de interés con la información adquirida. El modelo obtenido nos permite clasificar el problema inverso en lineal o no-lineal y nos permite determinar si es posible o no identificar el objeto de interés a partir de la información adquirida, es decir si el problema está bien puesto o mal puesto.
También es fundamental determinar si la caracterización del objeto es sensible a perturbaciones en la información adquirida, esto es, si el problema está bien condicionado o no. En caso que el problema original este mal puesto o mal condicionado es necesario identificar clases de interés que nos permitan reconstruir o estimar el objeto si asumimos que pertenece a esta clase. En este caso, información empírica o criterios de complejidad deben ser considerados. En ambos casos es necesario determinar también los efectos de muestrear o adquirir información parcial.
Finalmente, es necesario determinar métodos y técnicas de reconstrucción, es decir, fórmulas o algoritmos de inversión y los procedimientos computacionales eficientes que permiten obtener una reconstrucción o estimación del objeto de interés en tiempo razonable. Algunas de estas técnicas pueden ser clasificadas en algebraicas o variacionales.
En el Instituto de Ingeniería Matemática y Computacional participan investigadores que están involucrados en cada una de las etapas antes descritas, desde el diseño del modelo directo, hasta la implementación eficiente de los métodos de reconstrucción. En el Instituto además existen colaboraciones activas con científicos e ingenieros que trabajan en aplicaciones concretas que requieren estas técnicas. Algunos de los miembros y colaboradores del Instituto que participan en esta área son:
-
Clémentine Béchet - Instituto de Ingeniería Matemática y Computacional UC.
-
Matías Courdurier - Departamento de Matemáticas UC.
-
Carlos Sing-Long – Instituto de Ingeniería Matemática y Computacional e Instituto de Ingeniería Biológica y Médica UC.
Es área del conocimiento que estudia formar de caracterización cuantitativa y de reducción de las incertidumbres asociadas al análisis, diseño y control de sistemas complejos. En esta área se desarrollan modelos predictivos para establecer una relación entre los datos observados, el conocimiento del fenómeno que origina los datos y la toma de decisiones.
La formas de incertidumbre se pueden clasificar en:
- Incertidumbre aleatoria: es representativa de incógnitas que difieren cada vez que ejecutamos el mismo experimento. Por ejemplo, una sola flecha disparada con un arco mecánico que duplica exactamente cada lanzamiento (la misma aceleración, altitud, dirección y velocidad final) no llegará al mismo objetivo debido a vibraciones aleatorias y complicadas del eje de flecha, cuyo conocimiento no se puede determinar suficientemente para eliminar la dispersión resultante de puntos de impacto. El argumento aquí es, obviamente, en la definición de "no puede". El hecho de que no podamos medir suficientemente con nuestros dispositivos de medición actualmente disponibles no excluye necesariamente la existencia de tal información, lo que movería esta incertidumbre a la siguiente categoría.
-
Incertidumbre epistémica: se debe a cosas que uno podría saber en principio, pero no en la práctica. Esto puede deberse a que no han medido una cantidad con suficiente precisión, o porque su modelo descuida ciertos efectos, o porque determinados datos se ocultan deliberadamente.
Hay dos tipos principales de problemas asociados la cuantificación de la incertidumbre. Uno es la propagación hacia delante de la incertidumbre, donde las diversas fuentes de incertidumbre se propagan a través del modelo para predecir la incertidumbre general en la respuesta del sistema. La otra es la evaluación inversa de la incertidumbre del modelo y la incertidumbre de parámetros, donde los parámetros del modelo se calibran simultáneamente usando datos de prueba.
Esta área del conocimiento es inherentemente interdisciplinaria, y requiere de la interacción de especialistas en estadística, probabilidad, análisis numérico y computación de alto desempeño.
Los profesores en el área de Cuantificación de Incertidumbre son:
-
Luis Gutierrez - Departamento de Estadística, Facultad de Matemáticas.
-
Alejandro Jara - Departamento de Estadística, Facultad de Matemáticas.
-
Giovanni Motta - Departamento de Estadística, Facultad de Matemáticas.
-
Fernando Quintana - Departamento de Estadística, Facultad de Matemáticas.
-
Carlos Sing-Long - Ingeniería Matemática y Computacional; Instituto de Ingeniería Biológica y Médica.
El objetivo central de esta área es entender, formalizar y estudiar los procedimientos mecánicos, conocidos como algoritmos, que son utilizados al resolver un problema.
Para estudiar la noción de algoritmo, primero necesitamos un modelo matemático que sea capaz de formalizar este concepto. El modelo matemático clásico de algoritmo está constituido por las Máquinas de Turing, las cuales son máquinas de estado, con memoria y con una función de transición que indica cómo cambiar el estado y el contenido de la memoria de la máquina. Una vez formulado un modelo de computación, nos interesa conocer la cantidad de recursos computacionales que es necesario utilizar para resolver un problema. El primero de estos recursos es el tiempo: cuántos pasos o cuantas acciones debemos realizar para resolver el problema. También son importantes el espacio ocupado, la necesidad de utilizar una fuente de números aleatorios, la posibilidad de resolver sub-problemas en paralelo, entre otros. La formalización de un modelo de computación como objeto matemático nos permite expresar de manera precisa preguntas sobre problemas o algoritmos. En particular, si L es un problema. ¿Puede L ser resuelto por un algoritmo? ¿Puede ser L resuelto de manera eficiente? ¿Cómo podemos construir un algoritmo eficiente para L? ¿Es L un problema para el cual no existe un algoritmo que lo resuelva? Es importante destacar que el modelo de la Máquina de Turing es equivalente al computador moderno, por lo que una demostración matemática de que un problema no puede ser resuelto de manera eficiente en una Máquina de Turing nos da como consecuencia que este problema no puede ser resuelto de manera eficiente con los computadores que usamos hoy en día.
El área de teoría de la computación es particularmente interdisciplinaria, nutriéndose de cualquier otra área donde un problema deba ser resuelto por un algoritmo, tales como ingeniería, economía, matemáticas, biología y química, entre muchas otras.
Dentro de las sub-áreas y aplicaciones de teoría de la computación que son activamente investigadas en el IMC, podemos destacar:
Complejidad descriptiva: se estudia la complejidad de un problema en términos del lenguaje que es necesario utilizar para definirlo. En particular, distintas lógicas matemáticas son utilizadas como lenguajes para describir problemas.
Complejidad de lenguajes lógicos: se estudia la cantidad de recursos computacionales necesarios para evaluar una fórmula en una lógica matemática.
Expresividad de lenguajes lógicos: se estudia lo que puede ser expresado (o definido) en una lógica matemática, lo que permite entender el poder de esta lógica como modelo de computación.
Teoría de autómatas: se estudian modelos computacionales de menor complejidad basados en la idea de máquinas de estado con memoria limitada (o sin memoria). Estos modelos tienen buenas propiedades matemáticas y algorítmicas, siendo parte fundamental en el diseño e implementación de compiladores, verificación de sistemas, bases de datos, sistemas distribuidos, entre otros.
Fundamentos de manejo de datos: se estudian las bases matemáticas que modelan las diferentes tareas y aplicaciones relacionadas con el manejo de datos, lo cual requiere de la utilización de las técnicas y problemas mencionadas en los puntos anteriores.
Los profesores en el área de teoría de la computación son:
-
Marcelo Arenas, Departamento de Ciencia de la Computación, Escuela Ingeniería UC.
-
Juan Reutter, Departamento de Ciencia de la Computación, Escuela Ingeniería UC.
-
Cristian Riveros, Departamento de Ciencia de la Computación, Escuela Ingeniería UC.
-
Domagoj Vrgoc – Departamento de Ciencia de la Computación, Escuela Ingeniería UC
En qué consiste
El área de Data Science se dedica interdisciplinariamente a la comprensión y análisis de fenómenos o problemas mediante el uso de datos. El desarrollo tecnológico actual de sensores, dispositivos y sistemas de información han permitido la generación de cantidades masivas de datos. Esta gigantesca explosión de información requiere de un cambio de paradigma en la forma que usamos para almacenar y analizar los datos, como también en el rol de los expertos para enfrentar los problemas. Independiente del área de donde proviene la información, el problema principal es descubrir nuevo conocimiento que no puede ser visto por una inspección directa de la información.
Áreas de investigación y/o aplicación
Hoy en día, hacer ciencia con los datos es considerado un pilar fundamental y complementario a otras áreas de investigación puramente empíricas, teóricas y computacionales. Por ejemplo, podemos realizar ciencia con datos que provienen de un survey astronómico para clasificar tipos de estrella; o analizar y hallar patrones en el comportamiento de compra o hábitos de los clientes que navegan en una plataforma de compra on-line; o basados en las mediciones realizadas por grupos de sensores inteligentes contribuir a la gestión de ciudades inteligentes para el manejo eficiente de sistemas de transporte, energía y contaminación; o bien ayudar en la gestión de empresas para reducción de costos y búsqueda de nuevas oportunidades de negocio.
Beneficios en docencia
Data Science es un campo de investigación interdisciplinaria que requiere de tres componentes fundamentales: dominio en el área de conocimiento, dominio en análisis matemático y estadístico, y dominio en el desarrollo de algoritmos computacionales. Estos requerimientos motivan a los docentes en esta área a intercambiar constantemente conocimiento y experiencia de problemas generados en distintas disciplinas, acercándolos constantemente a las necesidades existentes en la industria y la sociedad.
Aportes en la industria
La aplicación de Data Science permite la creación de productos de datos a partir de datos que las empresas ya tienen. La pregunta que debería responder entonces cada emprendedor, empresa sin fines de lucro, o cada proyecto, es cómo usar eficientemente sus propios datos y los externos de tal modo de generar valor con ellos. Es aquí donde Data Science permite encontrar el valor oculto en los datos, donde este valor no solo es la retribución a nivel comercial, sino también a nivel social, de gobierno, de educación o de salud. Las empresas o instituciones mejor valoradas hoy en día son aquellas que se han dado cuenta del valor de sus datos y de cómo utilizarlos para el beneficio propio y de la sociedad.
Los profesores en el área de Data Science:
-
Marcelo Arenas – Departamento de Ciencia de la Computación, Escuela Ingeniería UC.
-
Cristóbal Guzmán – Instituto de Ingeniería Matemática y Computacional UC
-
Carlos Sing-Long – Instituto de Ingeniería Matemática y Computacional UC.
-
Juan Reutter – Departamento de Ciencia de la Computación, Escuela Ingeniería UC.