En el caso de componentes mecánicos, el pronóstico de fallas ha considerado hasta ahora una variedad de enfoques empíricos y basados en modelos fenomenológicos. Sin embargo, la mayor parte de los esfuerzos de investigación se ha focalizado en el análisis de datos de vibración o indicadores de condición (CI, por sus siglas en inglés) de sistemas. Muy pocos reportes han considerado una metodología sistemática que integre análisis de sensores, datos, selección de CI, diagnóstico y pronóstico de fallas en una sola plataforma que pueda ser portada a los sistemas de supervisión ya existentes en los procesos productivos. La implementación de dichos algoritmos de pronóstico puede ser un problema particularmente desafiante, dado que la exactitud de las estimaciones de vida útil remanente depende directamente de la calidad de predicciones a largo plazo calculadas en tiempo real. Muchos de los enfoques disponibles en el campo de confiabilidad de sistemas involucran el procesamiento intensivo de inmensas cantidades de datos históricos, ofreciendo poco espacio para ajustes en tiempo real dentro del proceso de estimación de RUL cuando el sistema se comporta de manera diferente a la esperada. Más aún, el efecto de posibles variaciones futuras en las entradas del sistema también debe ser considerado con cuidado, tomando en cuenta factores asociados a condiciones ambientales o a estrategias de control y acomodamiento de fallas. Un adecuado conocimiento de dichos efectos permitiría al operador percibir adecuadamente la evolución de condiciones detectadas; facilitando la toma de decisiones apropiadas para mitigar el escalamiento del problema y el cumplimiento de los requerimientos especificados para la operación. En este sentido, la incorporación de información en línea para la representación y manejo de la incertidumbre beneficia directamente la implementación de sistemas automáticos de contingencia (ACMs, por sus siglas en inglés), así como otros esquemas correctivos. De particular interés son los resultados obtenidos al considerar la utilización de modelos empíricos para procesos de degradación de componentes y la utilización de métodos secuenciales de Monte Carlo, también conocidos como "filtros de partículas", para efectos de estimar en tiempo real la función de distribución de probabilidad (FDP) de los estados del sistema y, por consiguiente, de la FDP del tiempo de vida útil remanente del equipo. Dr. Orchard colaboró en el Laboratorio de Sistemas de Control Inteligente en The Georgia Institute of Technology, donde tuvo la oportunidad de diseñar, verificar y validar algoritmos de pronóstico de fallas en sistemas dinámicos complejos. Su actual interés de investigación es el diseño, implementación y prueba de sistemas de detección de fallas, pronóstico de eventos catastróficos en línea y su aplicación en sistemas de control reconfigurable. Recibió el grado de Doctor y Magíster en The Georgia Institute of Technology, Atlanta, GA, en 2005 y 2007, respectivamente. | Los algoritmos de filtro de partículas usan el concepto de muestreo secuencial de importancia (en un marco Bayesiano) para aproximar la FDP de los estados del sistema, a través de un conjunto de posibles realizaciones del proceso estocástico y un set de pesos que representan la probabilidad de masa de dichas realizaciones. Este enfoque permite combinar las ventajas y rigores de la estimación Bayesiana, ayudando a incorporar en el análisis tanto el conocimiento basado en modelos de degradación del sistema (conocimiento a priori), como el obtenido a través del muestreo en línea del proceso (verosimilitud). Los algoritmos de pronóstico de fallas basados en filtros de partículas resuelven impecablemente los problemas asociados con la representación de incertidumbre en el proceso (a través de la incorporación de ruido no necesariamente Gaussiano en las ecuaciones de proceso y observación) y no-linealidad puesto que, a diferencia de los enfoques basados en filtro de Kalman, no requiere asumir linealidad en los modelos de degradación. Esto es de suma importancia dado que los supuestos de linealidad y Gaussianidad sólo permiten describir el comportamiento del proceso cuando se limita el horizonte de tiempo para predicciones de largo plazo. La posibilidad de combinar eficientemente modelos empíricos y fenomenológicos permite, además, estimar la condición actual del sistema, estimar parámetros desconocidos del proceso, detectar cambios en la operación y, simultáneamente, extrapolar la evolución en el tiempo de condiciones de interés. Por este motivo, los filtros de partículas se han establecido como la herramienta preferida dentro del estado del arte dentro de la comunidad PHM (Prognostics and Health Management). Numerosos avances se han realizado desde el punto de vista de la representación de incertidumbre y confiabilidad de la predicción, en el marco de la aplicación de filtros de partículas para la resolución de problemas de pronóstico de fallas, con resultados tangibles y verificables. La utilización de funciones de Epanechnikov y conceptos de teoría de re-muestreo y regularización ha permitido implementar diversos lazos de ajuste que facilitan la adaptación de los mecanismos de predicción y la estimación paramétrica en línea de sistemas basados en ecuaciones de estado híbridas. Asimismo, ha ayudado a incluir conceptos tales como intervalos de confianza, cuantificación de riesgo y probabilidad de falla catastrófica en la jerga de supervisión de procesos. Algo que hasta hace unos pocos años se pretendía caracterizar simplemente a través de valores esperados y límites de +/- sigmas. |