Monitoreo de condición explicable a partir de información imprecisa

  1. Costa Cortez, Nahuel
Dirigida por:
  1. Luciano Sánchez Ramos Director/a

Universidad de defensa: Universidad de Oviedo

Fecha de defensa: 21 de febrero de 2023

Tribunal:
  1. María Jesús de la Fuente Aparicio Presidenta
  2. José Ranilla Pastor Secretario/a
  3. Olivier Strauss Vocal
  4. Jesús Alcalá Fernández Vocal
  5. Susana Irene Díaz Rodríguez Vocal

Tipo: Tesis

Teseo: 796233 DIALNET lock_openRUO editor

Resumen

Los avances computacionales que han sucedido a lo largo de los últimos años, especialmente en la última década, han permitido el desarrollo de algoritmos de Inteligencia Artificial (IA) que han formado parte activa en el progreso de diferentes campos tales como la industria, la medicina o el arte. Ejemplos de ello pueden ser los sistemas de visión por computador que permiten a los coches autónomos modelar el entorno que les rodea, algoritmos de detección precoz del cáncer o la generación de imágenes realistas a partir de descripciones de texto. Debido a su buen rendimiento en la resolución de problemas complejos sin la necesidad de recurrir a conocimiento experto, estos avances han atraído enormemente el interés en el monitoreo de condición, que abarca problemas en los que se monitorizan las fuentes de información de un sistema para detectar cambios que provoquen fallos o deterioros. Históricamente es un concepto ligado a la industria, pero hoy en día las fuentes de información son muy diversas, por lo que la monitorización puede aplicarse a la inspección de fallos en un motor, así como también a la detección de anomalías en las constantes vitales de una persona en la UCI o en la predicción del mercado de valores. La IA puede tomar un tomar un papel fundamental en el desarrollo de este campo, sin embargo, existen una serie de limitaciones que hacen que su aplicación se vea aún restringida. Por ejemplo, muchos de los grandes progresos están ligados a la capacidad de reutilizar el conocimiento de modelos pre-entrenados, algo que se conoce como Transfer Learning. Esta reutilización es posible en datos estáticos como las imágenes o el texto, pero no en datos dinámicos como es el caso de los datos de monitorización, que normalmente son registros históricos que se almacenan a lo largo del tiempo. Esto se debe a que, a diferencia del texto o las imágenes, la cuantía física de los datos a monitorizar cambia entre problemas, es decir, un modelo entrenado sobre datos de motores es difícilmente aprovechable para el estudio de las constantes de una persona en la UCI. Por otra parte, los datos registrados por los sistemas a monitorizar están sujetos a una serie de inconvenientes que entorpecen su procesamiento. Por ejemplo, es habitual que la captura de datos sea una tarea dificultosa y, por consiguiente, pueden existir restricciones para crear modelos debido a defectos o imprecisiones en los datos, ya sea por su dimensionalidad, su complejidad o simplemente por su escasez. Además, la aplicación de modelos de IA se basa normalmente en predicciones o clasificaciones crudas donde existe una fuerte carencia en la interpretación de los resultados. Esta condición además se ve agravada cuando los datos son imprecisos o inexactos, puesto que los algoritmos tienen mayores dificultades a la hora de modelar la realidad o en el caso de hacerlo, están sujetos a sesgos. Por esta razón, se antoja necesario la creación de modelos que sean capaces de explicar las decisiones que toman. El desarrollo de esta tesis engloba el tratamiento de los problemas mencionados con soluciones generalistas que pueden ser aplicadas a diferentes campos. En primer lugar, se propone el desarrollo y aplicación de mecanismos para lidiar con las ineficiencias en los datos y para habilitar la utilización de modelos avanzados de Deep Learning, los cuáles necesitan amplios volúmenes de datos para ser entrenados. Para ello, se recurre a modelos de simulación, también conocidos como gemelos digitales y se plantea la utilización de algoritmos probabilísticos de Deep Learning como las redes Generativas Adversarias (GAN) y Autoencoders Variacionales (VAE), que, a diferencia de otros, pueden gestionar eficazmente la incertidumbre y manejar datos no estructurados y de alta dimensionalidad como consecuencia de aprender la distribución de probabilidad de los datos. Además, son capaces de modelar relaciones no lineales, proporcionando una representación más sólida y precisa del comportamiento del sistema a monitorizar. Por otra parte, se persigue la creación de modelos que consigan modelar eficazmente la velocidad de degradación para permitir la detección de pequeños cambios que normalmente no suponen una alteración en el funcionamiento normal de los sistemas pero que pueden conducir a un problema repentino en el futuro. De esta manera, mostramos que es posible desarrollar modelos capaces no solo de identificar fallos sino también de anticiparlos. Dado que el objetivo final del desarrollo de estos sistemas es su aplicación en entornos reales por profesionales cuya relación con la IA es mínima o inexistente, se presenta la creación de herramientas visuales a partir activaciones neuronales internas de los modelos para facilitar la interpretación de las predicciones y en consecuencia aportar un mayor impacto en la toma de decisiones. Las soluciones propuestas son aplicadas a tres problemas de monitoreo de condición, que son el análisis de la Fibrilación Auricular, la estimación de la vida útil de motores de aviación y el diagnóstico y pronóstico de baterías de litio. Se demuestra numéricamente que las soluciones propuestas son equiparables e incluso superiores al estado del arte en cada uno de los problemas de estudio en diferentes benchmarks y se presentan aplicaciones de estas soluciones a datos reales. Finalmente, se incide en la utilización de herramientas de explicabilidad y visualización con el objetivo de permitir una incorporación mucho más natural y segura de los modelos en los sistemas a monitorizar.