Después de 29 años de carrera profesional en el mundo del mantenimiento, la confiabilidad de sistemas y la gestión de activos, con frecuencia me he preguntado ¿Por qué nos empeñamos en hacer tan difícil la aplicación de los conceptos de confiabilidad en el mantenimiento? Tener activos disponibles, no necesariamente serán activos confiables, mientras que tener activos confiables generalmente conllevan a activos disponibles en un gran porcentaje de tiempo del ciclo de vida de los mismos.
Ambos conceptos disponibilidad y confiabilidad tienen una interacción si se quiere bidireccional, sin embargo la manera como los enfrentamos o los medimos nos conllevará muchas veces a tomar decisiones equivocadas. La disponibilidad es manejada generalmente como un concepto determinístico que está basado en la historia de lo que ocurrió con nuestros activos y nos da información de lo sucedido, es decir es un indicador del pasado, sin darnos la posibilidad de actuar de manera proactiva, entonces ¿Por qué nos empeñamos en seguir midiendo disponibilidad? ¿Será que no entendemos el concepto de confiabilidad? ¿Será que desde nuestra formación en la universidad nos complicaron y definieron ese proceso como algo solo para científicos o genios de la NASA?
La confiabilidad es considerada una variable aleatoria, entendiendo por variables aleatorias a aquellas variables, denotadas como “X” que por su naturaleza pueda tomar un conjunto de diferentes valores (x1, x2, x3, x4, ... xn) y cada uno de esos valores tiene una probabilidad de ocurrencia (p1, p2, p3, p4, ... pn), sin que se tenga la certeza de cuál de todos esos valores tomará la variable “X”.Este concepto nos lleva a la siguiente pregunta
¿Por qué si en nuestro día a día un gran número de las variables de nuestros procesos son aleatorias, continuamos tratándolas como determinísticas? ¿Por qué seguimos tomando todos los posibles valores y sacamos el promedio?
No siempre el promedio aritmético de un conjunto de valores que puede tomar una variable aleatoria tiene la mayor probabilidad de ocurrencia, esto nos conlleva muchas veces a tomar decisiones equivocadas, que en la gran mayoría de las veces pagamos con creces dicha decisión. En la siguiente gráfica podemos ver una aplicación práctica de lo que comentamos.
Puede apreciarse que la variable aleatoria tiempo entre fallos de este activo (X), en los últimas 25 mediciones a tomado 25 valores diferentes, donde el Tiempo promedio entre falla seria 680 horas, el cual tiene una probabilidad de ocurrencia de aproximadamente un 50%, este ejemplo nos muestra claramente y de una manera muy sencilla que usar el pensamiento determinístico nos conllevaría a tener un 50% de probabilidad de estar equivocados en las decisiones que tomemos sobre el futuro de este activo, esto muy seguramente nos conlleva a esperar de él un tiempo continuo de operación que tiene muy baja probabilidad de ocurrencia y con ellos poner en riesgo compromisos de producción, por ejemplo.
Si quieres conocer la manera de como afrontar este tema y dar un paso mas allá en este conocimiento, te invito a leer mi articulo:
¿QUE PREFIERES, MEDIR DISPONIBILIDAD CON CERTEZA O PREDECIR CONFIABILIDAD CON INCERTIDUMBRE?
Solo tienes que convertirte en miembro de mi Patreon y tendrás mensualmente a tu disposición toda mi colección de vídeos y artículos relacionados a este tema que es mi pasión.
Gracias por apoyar mi conocimiento, ¿Ya conoces las ventajas de pertenecer a mi red?
Comments