Ciclo de Mejora de la Calidad en la Gestión de Proyectos que

Anuncio
1
Máster Universitario en Gestión de la Calidad en
los Servicios de Salud.
Curso 2012/2013
Departamento de Ciencias Sociosanitarias
Facultad de Medicina
TITULO DEL TRABAJO FINAL DE MÁSTER:
CICLO DE MEJORA DE LA CALIDAD EN LA GESTIÓN DE PROYECTOS QUE INICIAN EL PROCESO DE CERTIFICACIÓN
Tutor: D. Françes Medina i Mirapeix
Cotutor: D. Pedro Parra Hidalgo
Alumno: Ángela Palop del Río
NIF: 26012020D
Fecha: 25 de mayo de 2013
2
ÍNDICE: 1. RESUMEN .................................................................................................................................... 3 2. INTRODUCCIÓN .......................................................................................................................... 4 a. Contexto .................................................................................................................................. 4 b. Problema ................................................................................................................................. 7 c. 3. a. Objetivo del cambio ................................................................................................................ 8 APLICACIÓN DE LA METODOLOGÍA HFMEA PARA EL PROCESO ............................................... 8 Métodos .................................................................................................................................. 8 b. Resultados ............................................................................................................................. 10 4. a. REALIZACIÓN DE UN CICLO DE MEJORA .................................................................................. 10 Métodos ................................................................................................................................ 10 b. Resultados ............................................................................................................................. 16 5. DISCUSIÓN ................................................................................................................................ 21 6. BIBLIOGRAFÍA ........................................................................................................................... 26 Anexo 1. Proceso de certificación de centros y unidades ................................................................. 28 Anexo 2. Listado de posibles fallos ................................................................................................... 29 Anexo 3. Árbol decisional .................................................................................................................. 30 Anexo 4. Hojas Resumen del HFMEA ................................................................................................ 32 3
1. RESUMEN Título: Ciclo de mejora de la calidad en la gestión de proyectos que inician el proceso de certificación. Objetivo: Disminuir los errores en la gestión de los proyectos que se encuentran en las primeras fases del proceso de certificación de centros y unidades sanitarias: presentación del proyecto, seguimiento de la autoevaluación y planificación de la visita de evaluación. Métodos: En una primera fase se aplicó el análisis modal de fallos y efectos (metodología HFMEA: Healthcare Failure Modes and Effects Analysis) para identificar los posibles riesgos o fallos del proceso y sus causas. En la segunda fase, se realizó un ciclo de mejora estableciendo cinco criterios de calidad basados en los resultados del HFMEA. Los criterios se evaluaron antes y después de implementar intervenciones para mejorar. Resultados: Se identificaron 41 posibles fallos en el proceso. Se decidió aplicar el árbol decisional sobre 6 fallos relacionados con las primeras fases del proceso, sobre los que se identificaron las causas. En la primera evaluación el número total de incumplimientos fue de 61 (24,4%). El mayor número de incumplimientos correspondió a tres criterios: registro de características de la entidad (C1), informe de actividad de la autoevaluación (C4) y confirmación de la viabilidad de la visita de evaluación (C5). Tras la intervención, el número de incumplimientos fue de 19 (7,6%). En los criterios C1 y C5 se observó una mejora estadísticamente significativa. Conclusiones: La herramienta HFMEA resulta de utilidad en la identificación de riesgos cuando se analiza el proceso de certificación. Las intervenciones para la mejora han permitido reducir los riesgos del proceso y se ha obtenido una mejora en los resultados. Palabras clave: Certificación de centros sanitarios. Análisis modal de fallos y efectos. FMEA. Gestión de riesgos. Ciclo de mejora de la calidad. Title: Quality‐Improvement Cycle in the Management of Projects that initiate the Certification Process. Objective: Reduce the errors in the Management of projects in the early stages of the Certification Process in Healthcare Centers: project presentation, self‐monitoring and planning of the evaluation visit. Methods: In the first stage, the HFMEA methodology (Healthcare Failure Modes and Effects Analysis) was applied in order to identify potential risks or process failures and their causes. In the second phase, a quality‐improvement cycle was applied, determining five quality criteria based on the results of HFMEA. The criteria were evaluated before and after implementing the improvement‐interventions. Results: A total of 41 potential failures were identified in the process. A Decision Tree was applied on 6 common failures at the early stages of the process, whose causes were identified. In the first evaluation, the total number of errors was 61 (24.4%). The largest number of errors corresponded to three criteria: registration of the characteristics of the entity (C1), Self‐monitoring activity report (C4) and confirmation of the visit plan (C5). After the intervention, the number of errors was 19 (7.6%). Criteria C1 and C5 showed a statistically significant improvement. Conclusions: HFMEA is a useful tool to identify risks when analyzing the Certification Process. The proposed Improvement‐interventions have reduced the risk of breaches in the process and therefore improved the results. Keywords: Healthcare‐Center Certification. Healthcare Failure Modes and Effects Analysis. HFMEA. Risk management. Quality‐Improvement Cycle. 4
2. INTRODUCCIÓN a. Contexto El concepto de calidad de un producto o servicio se podrá definir en función de las expectativas y necesidades de quien lo recibe (1). Cuando una organización define el concepto de calidad se hace necesario materializarlo en un programa de gestión de la calidad para llevarlo a la práctica asistencial. Existen diversas formas para que una organización implante un sistema de gestión de la calidad: apostar por un programa de calidad interno (definido por la propia organización), por un programa externo (adoptando los estándares definidos por una entidad certificadora o acreditadora) o por la combinación de ambos (2). La Agencia de Calidad Sanitaria de Andalucía (ACSA) (3) es una organización de la Consejería de Salud y Bienestar Social de la Junta de Andalucía, cuya misión es impulsar la cultura de la calidad, seguridad y mejora continua en la atención sanitaria. Para conseguir esta finalidad, se erige como la entidad certificadora de centros y unidades sanitarias, mediante distintos programas de certificación. La ACSA considera que la calidad de sus actuaciones constituye un elemento fundamental para asegurar la credibilidad y confianza que en ella depositan los ciudadanos y las instituciones y profesionales sanitarios. Uno de los compromisos recogidos en la política de calidad de la ACSA es el del “trabajo bien hecho”, que hace referencia al rigor metodológico, la eficiencia y la sostenibilidad con la que trabaja la organización, siguiendo un orden y un método en el modo en el que los profesionales realizan sus tareas y estableciendo un sistema de gestión diseñado para satisfacer las necesidades y expectativas de todos los grupos de interés. El Sistema de Gestión de la Calidad, es el instrumento que permite establecer y controlar el conjunto de actuaciones puestas en marcha por la organización para promover la mejora continua de todas las actividades que desarrolla. La ACSA ha optado por la implantación de un modelo de gestión por procesos, y por la definición y desarrollo de un mapa de procesos y de los procedimientos e instrucciones técnicas de la organización. Además, la ACSA ha apostado por el reconocimiento externo mediante la acreditación de la Entidad Nacional de Certificación (ENAC) para los programas de certificación de centros y unidades, según la norma específica para la certificación de servicios UNE EN‐ 45011:1998 y el Reconocimiento EFQM (+400) por parte del Club de Excelencia en la Gestión (4‐6). La certificación es un proceso dinámico, continuo y evolutivo que refleja no sólo el momento en el que está el centro o unidad, sino el potencial de desarrollo y mejora para crecer en calidad. Diversos estudios evalúan el impacto de la acreditación de hospitales sobre sus resultados globales y/o particulares con resultados en su mayoría positivos (7‐12). Las fases del proceso de certificación definido en la ACSA (Figura 1) (13) son: FASE 1: Solicitud de Certificación. Una vez realizada la solicitud, tiene lugar la planificación conjunta de todo el proceso; la Agencia designa un evaluador que coordina el desarrollo del proceso. Por su parte, el centro o unidad sanitaria, propone a un responsable interno para posibilitar una comunicación fluida. FASE 2: Autoevaluación. La autoevaluación permitirá a cada centro valorar las actividades que va desarrollando, detectando de forma periódica las áreas que son susceptibles de cambio o mejora y fomentando el aprendizaje organizacional, la creación y gestión del conocimiento. En esta fase, los profesionales autoevaluadores reflexionan sobre el cumplimento de los estándares mediante la identificación y registro de evidencias positivas y/o áreas de mejora teniendo como marco de referencia el Manual de estándares de certificación. FASE 3: Visita de evaluación. Una vez completada la fase de autoevaluación, se planifica de forma consensuada la visita de evaluación externa. El equipo evaluador de la Agencia es el encargado de estudiar la información aportada durante la autoevaluación y visitar el centro o unidad, verificando el cumplimiento de los estándares (a partir de las evidencias positivas y áreas de mejora aportadas, así como otras evidencias significativas que se recogerán durante la visita y que serán tanto documentales, como procedentes de entrevistas y de observación directa) y 5
6
preparando el informe de situación y mejora, en el que se especifica el grado de cumplimiento de los estándares y sus recomendaciones. FASE 4: Seguimiento. Esta fase, está destinada a asegurar la estabilidad del cumplimiento de los estándares en el tiempo, a continuar avanzando en el camino de la calidad y promover la mejora continua. Figura 1. Fases del proceso de certificación de centros y unidades sanitarias de la ACSA. Las reglas para la concesión, mantenimiento y renovación de la certificación de servicios, se encuentran desarrolladas en el Documento General de Certificación de Servicios (14). En este documento se describe todo el proceso de certificación: fases, plazos, responsabilidades, resultados, decisiones, etc. El modelo de certificación otorga un papel relevante a la autoevaluación. En esta fase, son los diferentes grupos o profesionales de los centros y unidades quienes identifican su posición actual, determinan a dónde quieren llegar y planifican actuaciones para conseguirlo. La autoevaluación se convierte así en una herramienta básica de calidad, permitiendo a todos los profesionales implicarse en la mejora continua de su centro o unidad, identificando sus fortalezas y sus áreas de mejora. El diseño de la autoevaluación en el modelo andaluz de certificación de la calidad sanitaria se basa en el ciclo de mejora continua, o ciclo PDCA (Ciclo de Deming). Por lo tanto, para 7
garantizar el éxito del proceso, es necesario realizar una planificación realista y exhaustiva de la autoevaluación. La fase de autoevaluación está soportada por una aplicación informática online, ME_jora C, accesible desde cualquier puesto con internet, que además sirve como gestor documental de toda la información generada en el proceso de certificación. La aplicación ME_jora C, dispone de una zona de comunicación que permite comunicarse con el responsable del proyecto en la ACSA. La aplicación también dispone de zonas destinadas a que el evaluador responsable pueda registrar las actuaciones relacionadas con la gestión de cada proyecto (apartado “actuaciones”, cronograma del proyecto y carpeta virtual). Cada proyecto que inicia el proceso de certificación tiene asignado un evaluador responsable. Este profesional se ha designado para acompañar a la entidad durante todo el proceso, dar soporte metodológico al desarrollo de la autoevaluación y para gestionar y coordinar una adecuada planificación de la visita de evaluación. b. Problema El proceso de certificación de centros y unidades sanitarias, enmarcado en la gestión por procesos de la ACSA, es uno de los procesos clave de la organización. Abarca desde que las entidades expresan su interés en certificarse, hasta el fin de la vigencia de la certificación, retirada de la certificación o abandono del proyecto (Anexo 1). Uno de los objetivos de los evaluadores de la ACSA es la adecuada gestión de los proyectos que tienen asignados como responsables. En la dirección del área, se observaron diversos errores en la gestión de los proyectos que se encontraban en las primeras fases del proceso de certificación (presentación del proyecto, seguimiento de la autoevaluación y planificación de la visita de evaluación) por lo que se planteó la realización de este trabajo. 8
c. Objetivo del cambio Los objetivos de este trabajo son: 1. Analizar el proceso de certificación de centros y unidades aplicando el esquema de análisis de la metodología HFMEA (Healthcare Failure Modes and Effects Analysis) para identificar las causas de los posibles riesgos o fallos relacionados con las primeras fases (presentación, autoevaluación y planificación de la visita). 2. Realizar un ciclo de mejora que nos permita diseñar intervenciones para subsanar las causas de los posibles riesgos o fallos y evaluar la efectividad de dichas intervenciones. 3. APLICACIÓN DE LA METODOLOGÍA HFMEA PARA EL PROCESO a. Métodos Para conseguir el primer objetivo, se aplicó una adaptación del esquema de análisis de la metodología HFMEA (Healthcare Failure Modes and Effects Analysis) para el proceso de certificación de centros y unidades. El análisis fue realizado en diciembre de 2011 por un equipo multidisciplinar de expertos en el tema formado por todos los profesionales del área de certificación de centros y unidades (dirección, jefes de proyectos, evaluadores y administrativos). Siguiendo la metodología de Saturno (15) se obtuvo en primer lugar, un listado de posibles fallos del proceso completo mediante una lluvia de ideas y el “Set de Preguntas de Cribaje y Alerta”. Para aplicar la matriz de puntuación de riesgos (figura 2), se establecieron los siguientes criterios (basados en los criterios para la clasificación de los fallos analizados con HFMEA), para clasificar la “gravedad” (menor, moderada, importante, catastrófica) y la “probabilidad de aparición” (frecuente, ocasional, poco común, remota) de los posibles fallos en el proceso de certificación de centros y unidades. Tablas 1 y 2. 9
PROBABILIDAD GRAVEDAD DEL EFECTO Catastrófico Frecuente 16 Ocasional 12 Poco común 8 Remota 4 Importante 12 9 6 3 Moderado 8 6 4 2 Figura 2. Matriz para puntuación de riesgo Menor 4 3 2 1 CRITERIOS PARA CLASIFICAR LA GRAVEDAD DE LOS FALLOS Menor Moderado Importante Catastrófico No tiene consecuencias sobre el solicitante. Apenas afecta al desarrollo del proceso. El fallo llega hasta el solicitante pero no tiene consecuencias importantes. El fallo no tiene consecuencias sobre el solicitante pero sí sobre el desarrollo normal del proceso. El fallo representa un problema para el solicitante: hay que actuar para resolverlo. El fallo no tiene consecuencias inmediatas sobre el solicitante pero representa un bloqueo en nuestro proceso. Resultados negativos sobre el solicitante. Impide el desarrollo normal del proceso. Hay que actuar de forma inmediata para resolverlo. Tabla 1.‐ Criterios para clasificar la gravedad de los fallos del proceso de certificación. CRITERIOS PARA CLASIFICAR LA PROBABILIDAD DE OCURRENCIA DE LOS FALLOS Remota Es muy poco probable que ocurra. Puede ocurrir alguna vez en un periodo de cinco a treinta años. Poco común Es posible que ocurra. Puede ocurrir alguna vez en un periodo de dos a cinco años. Ocasional Probablemente ocurrirá. Puede ocurrir varias veces en uno o dos años. Frecuente Puede ocurrir inmediatamente o dentro de un periodo corto de tiempo. Puede ocurrir varias veces en un año o menos. Tabla 2.‐ Criterios para clasificar la probabilidad de ocurrencia de los fallos del proceso de certificación. El árbol decisional considera dos criterios adicionales: “criticalidad” (si el fallo es básico para el proceso) y “detectabilidad” (si su aparición es obvia y puede por tanto actuarse sobre él a tiempo). El árbol decisional concluye con la recomendación de continuar con el análisis o parar en este paso. En los casos en los que se decidió continuar, se realizó un listado de las posibles causas empleando el “Set de Preguntas de Cribaje y Alerta”. A continuación se analizó cada posible causa del fallo volviendo a aplicar la matriz para puntuación del riesgo y el árbol decisional para cada una de las causas. b. Resultados Se obtuvo un listado de 41 posibles fallos (Anexo 2), de los cuales 23 obtuvieron puntuación ≥8 tras aplicar la matriz para puntuación de riesgo. Para el objetivo de este trabajo, se decidió continuar aplicando el HFMEA a partes del proceso sucesivas y priorizadas. De esta forma, se comenzó aplicando el árbol decisional a los fallos relacionados con las fases de “presentación” y de “seguimiento de la autoevaluación” y que puntúan ≥9, que son un total de 6 (Anexo 3). Tras aplicar el árbol decisional, se decidió parar en dos de los posibles fallos y se decidió continuar en cuatro. Finalmente, aplicando de nuevo la matriz para puntuación de riesgo y el árbol decisional se identificaron las causas de cada fallo. Los resultados se reflejan en la primera parte de las Hojas Resumen del HFMEA (Anexo 4). 4. REALIZACIÓN DE UN CICLO DE MEJORA a. Métodos Antes de continuar con el diseño de las intervenciones y en base a los posibles fallos y a sus causas, identificados tras la aplicación de la metodología HFMEA, se decidió establecer criterios que permitieran evaluar la calidad de la gestión de los proyectos en las primeras fases del proceso de certificación (presentación del proyecto, seguimiento de la autoevaluación y planificación de la visita de evaluación). En la tabla 4 se exponen los cinco criterios de calidad elaborados con sus correspondientes excepciones y aclaraciones: 10
11
CRITERIOS 1. Tras la presentación se registrarán las características del centro o unidad y los recursos necesarios para la visita. 2. Se pactará la fecha de la visita de evaluación al mes de la presentación. EXCEPCIONES ACLARACIONES No será necesario para los proyectos Quedarán registradas en el apartado de renovación de la certificación. actuaciones el mismo día que se realiza la presentación. Características de la entidad: número de profesionales, distribución y ubicaciones, plantas y número de camas, consultas y quirófanos, número de consultorios. Si el responsable de la entidad no Debe quedar registrada la fecha en el concreta la fecha de visita en ese apartado específico del cronograma del plazo, será asignada por la Agencia. proyecto, así como en el calendario de visitas del área. Se comunicará a la entidad a través de la zona de comunicación del proyecto. La fecha se debe fijar antes de que pasen 30 días desde la presentación. 3. La Agenda se enviará al mes de la presentación. Ninguna 4. Informe sobre la actividad de la autoevaluación dos meses y medio antes de la visita. Si la entidad ha anulado la fecha de visita pactada, esta actuación se realizará dos meses y medio antes de la fecha de fin de plazo de autoevaluación. 5. Confirmación definitiva de la viabilidad de la fecha de visita 45 días antes de la misma. Si la entidad ha anulado la fecha de visita pactada, esta actuación se realizará 45 días antes de la fecha de fin de plazo de autoevaluación. Se adjuntará en la Carpeta Virtual. La Agenda se debe enviar antes de que pasen 30 días desde la presentación. Esta información quedará registrada en las actuaciones. Informe de actividad de la autoevaluación: número de evidencias aportadas, número de documentos, cumplimiento de estándares y contacto telefónico con el responsable de la entidad para revisión de plazos. Para cumplir este criterio, tienen que existir el registro dos meses y medio antes de la visita. Se registrará en el apartado actuaciones. En caso de no ser viable se procederá a la anulación de la visita por la vía establecida. La confirmación definitiva debe tenerse antes de 45 días anteriores a la fecha prevista de visita. Tabla 4.‐ Criterios de calidad. Se trata de criterios explícitos, de carácter normativo, transversales, isovalentes y específicos. Para conocer la implicación que los criterios pueden tener en la calidad de la gestión de los proyectos se procede a la descripción de los mismos: Criterio 1. Tras la presentación se registrarán las características del centro o unidad y los recursos necesarios para la visita. Este criterio está orientado a disponer de información necesaria para garantizar que no se han cometido errores al dar de alta el proyecto en un determinado ámbito de certificación. También será imprescindible para no cometer errores en la elaboración de las agendas de visita y para la asignación de equipos evaluadores a los distintos proyectos. En función de las características de la entidad (número de profesionales, distribución y ubicaciones, plantas y número de camas, consultas y quirófanos, número de consultorios), podría ser necesario habilitar más jornadas de visita, o bien, asignar más evaluadores al equipo. Criterio 2. Se pactará la fecha de la visita de evaluación al mes de la presentación. Con este criterio se pretende que el calendario de visitas de evaluación esté permanentemente actualizado y se pueda conocer la previsión de visitas con la suficiente antelación para garantizar su gestión. Además, es imprescindible que el responsable de la entidad sea consciente de la fecha en la que se realizará la visita, ya que dos semanas antes debe finalizar la autoevaluación. El correcto registro de la fecha de visita en el apartado específico de la aplicación informática es fundamental para no cometer errores en el calendario de visitas del área y por tanto en la organización de las mismas. Criterio 3. La Agenda se enviará al mes de la presentación. Este criterio está orientado a que los responsables de la entidad dispongan de un documento en el que se reflejen las características y la estructura de la visita de evaluación, detallando los horarios de cada prueba y las indicaciones necesarias para que puedan ir organizando la jornada. Además se incluye el listado de los documentos que de forma imprescindible tendrán que estar disponibles el día de la visita. El envío de este documento con la suficiente antelación evitará importantes errores en la organización de la visita de evaluación. 12
Criterio 4. Informe sobre la actividad de la autoevaluación dos meses y medio antes de la visita. El objetivo de este criterio es establecer un punto de corte durante la autoevaluación para ir conociendo la situación de la entidad. Es misión del evaluador responsable recordar los plazos, solventar las dudas que se puedan plantear con respecto al proceso y conocer el estado de la autoevaluación (tiene o no actividad, número de evidencias positivas y documentos, cumplimiento de estándares, qué plazo tienen previsto para finalizar). Esta información servirá también para la gestión del calendario de visitas de evaluación. Criterio 5. Confirmación definitiva de la viabilidad de la fecha de visita 45 días antes de la misma. Mediante este criterio se pretende que todas las fechas de visita estén confirmadas de forma definitiva el mes anterior, ya que en este momento es cuando se asignan los recursos necesarios para su adecuado desarrollo. Anular una visita de evaluación después de esta fecha, tiene consecuencias negativas sobre la gestión interna (organización de los evaluadores, gestión de viajes, etc.). La validez es el principal atributo exigible a un criterio. Para valorar la validez de los criterios que hemos seleccionado, y confirmar que lo que mediremos es lo que realmente queremos medir, no podemos basarnos en la evidencia científica sino en la experiencia acumulada, en los plazos definidos en nuestros procedimientos internos y en los compromisos adquiridos con nuestros usuarios, que son los responsables de las entidades inmersas en procesos de certificación de la calidad sanitaria. Se constata por tanto, la validez facial y la validez de contenido de los criterios, siendo la satisfacción la dimensión de la calidad estudiada. En cuanto a la fiabilidad de los criterios, se realizó un pilotaje previo que permitió comprobar la concordancia entre dos evaluadores mediante el cálculo del índice Kappa en una muestra de 30 proyectos seleccionados de forma aleatoria. Se obtuvo un grado aceptable de fiabilidad de los criterios (Tabla 5) con resultados de Kappa mayores a 0.4, por lo que no se tuvo que calcular la prevalencia estimada. 13
14
CRITERIOS ÍNDICE KAPPA (k) 1. Tras la presentación se registrarán las características del centro o unidad y los recursos necesarios para la visita. 2. Se pactará la fecha de la visita de evaluación al mes de la presentación. 3. La Agenda se enviará al mes de la presentación. 4. Informe sobre la actividad de la autoevaluación dos meses y medio antes de la visita. 5. Confirmación definitiva de la viabilidad de la fecha de visita 45 días antes de la misma. Tabla 5.‐ Grado de fiabilidad de los criterios. 0,78 1 1 0,57 0,66 Se realizó un análisis sobre el tipo de datos a los que están referidos los criterios. Los criterios 1, 2 y 4 son de proceso ya que están enfocados a evaluar cómo se hacen determinadas actuaciones. Los criterios 3 y 5 son de resultado, porque reflejan lo que acontece cuando se aplica el proceso. Las unidades de estudio sobre las que se realizará la medición de los criterios de calidad son los proyectos de los centros y unidades sanitarias que han solicitado la certificación, especificando los siguientes aspectos: •
Características de la población que entra en la evaluación: todos los centros y unidades de cualquier ámbito sanitario. •
Características de los proveedores: evaluadores responsables de proyectos del área de certificación de centros y unidades. •
Periodo de tiempo evaluado: primeras fases del proceso de certificación (presentación del proyecto, seguimiento de la autoevaluación y planificación de la visita de evaluación). La primera evaluación fue realizada en enero de 2012. Los componentes del estudio de la primera evaluación fueron los siguientes: El marco temporal para la extracción de casos a evaluar es el año 2011. Las fuentes de datos para la identificación de las unidades de estudio son los propios proyectos gestionados en la aplicación informática ME_joraC. Las fuentes para la obtención de datos sobre el cumplimiento de los criterios son los apartados específicos de ME_joraC para el registro de actividad en cada proyecto (actuaciones, zona de comunicación, cronograma, carpeta virtual). Respecto a la identificación y muestreo de los casos, se tiene como marco muestral los proyectos de centros y unidades a los que se les abre el proyecto de certificación en el año 2011 (N= 176 proyectos abiertos en 2011). El tamaño de la muestra es de 50 casos obtenidos mediante el método de muestreo sistemático. Se trata de una evaluación interna, decidida por los propios profesionales, retrospectiva y cruzada. Tras el análisis de los datos mediante el diagrama de Pareto se identificaron los criterios que aportaban mayor número de defectos de calidad y se establecieron los “pocos vitales”. Con esta información se continuó con la metodología HFMEA para el diseño e implementación de intervenciones para mejorar. Una vez identificados los fallos y causas sobre los que decidimos actuar, el grupo de trabajo describió el tipo de acción o estrategia a implementar para cada uno de ellos. Las opciones posibles eran “eliminar”, “controlar” o “aceptar” los riesgos (en este caso equivalentes a las causas) que estábamos considerando. Adicionalmente, como para todas las actividades prospectivas o de diseño de la calidad, se definieron indicadores para comprobar que las intervenciones se habían llevado a cabo. Todas las intervenciones se realizaron entre enero y febrero de 2012. El proceso HFMEA termina con la asignación de responsables para la implementación de las acciones que componen la intervención diseñada, asegurándonos que está enterado y de acuerdo el nivel gestor de la organización. Finalmente, tras el plan de intervención y transcurrido un año, en enero de 2013 se realizó una nueva evaluación utilizando los mismos criterios para ver si la intervención había sido efectiva. 15
16
Los componentes del estudio para la reevaluación fueron los mismos que en la primera evaluación, salvo que en este caso el marco temporal para la extracción de casos a evaluar fue el año 2012 y el marco muestral los proyectos de centros y unidades a los que se les abre el proyecto de certificación en el año 2012 (N= 104 proyectos abiertos en 2012). Finalmente se realizó un análisis y comparación de los resultados de las dos evaluaciones calculando el valor de z, valor estadístico estándar de la distribución normal, para comprobar la significación estadística.
b. Resultados En la tabla 6 se indican los resultados de cumplimiento obtenidos tras la primera evaluación: Oportunidad de mejora: Mejora en la gestión de los proyectos en las primeras fases del proceso de certificación. Casos evaluados (n): 50 Marco muestral (N): 176 proyectos abiertos en 2011
CRITERIOS 1. Tras la presentación se registrarán las características del centro o unidad y los recursos necesarios para la visita. 2. Se pactará la fecha de la visita de evaluación al mes de la presentación. 3. La Agenda se enviará al mes de la presentación. %C ± IC 95% (a) 36 (±11) 90 (±7) 88 (±7) 4. Informe sobre la actividad de la autoevaluación dos meses y medio 78 (±9) antes de la visita. 5. Confirmación definitiva de la viabilidad de la fecha de visita 45 86 (±8) días antes de la misma. (a) Estimación puntual ± 1,96 x error estándar (para un grado de confianza del 95%) Tabla 6.‐ Nivel de cumplimiento de los criterios antes de la intervención. El diagrama de Pareto (figura 3) representa la frecuencia de incumplimientos de cada uno de los criterios evaluados, ordenados de mayor a menor número de incumplimientos y completado con una curva de frecuencia porcentual acumulada (tabla 7). 17
CRITERIOS Nº INCUMPLIMIENTOS (FRECUENCIA ABSOLUTA)
% (FRECUENCIA RELATIVA)
FRECUENCIA ACUMULADA
32 52 % 52,46 11 70 % 18,03 7 82 % 11,48 6 92 % 9,84 5 100 % 8,20 61 100 % 1. Tras la presentación se registrarán las características del centro o unidad y los recursos necesarios para la visita. 4. Informe sobre la actividad de la autoevaluación dos meses y medio antes de la visita. 5. Confirmación definitiva de la viabilidad de la fecha de visita 45 días antes de la misma.
3. La Agenda se enviará al mes de la presentación. 2. Se pactará la fecha de la visita de evaluación al mes de la presentación. Tabla 7.‐ Construcción del Diagrama de Pareto. DIAGRAMA DE PARETO INCUMPLIMIENTOS CRITERIOS DE CALIDAD
100
90
80
70
60
FRECUENCIA 50
RELATIVA DE 40 INCUMPLIMIENTOS
30
20
10
0
60
50
40
FRECUENCIA ABSOLUTA DE 30
INCUMPLIMIENTOS
20
10
0
C1
C4
C5
C3
C2
CRITERIOS
Figura 3. Diagrama de Pareto (datos de la tabla 7) Cada incumplimiento se considera un defecto de calidad. Mediante el diagrama de Pareto se visualiza conjuntamente qué criterios aportan un mayor número de defectos de calidad. En nuestro caso, se observó un mayor número de defectos de calidad para los criterios 1, 4 y 5. Además, estos criterios suponían por sí solos la mayoría de los 18
incumplimientos (>80%). Estos son los pocos vitales sobre los que decidimos actuar prioritariamente para mejorar. En base a estos resultados y a la identificación de los fallos y causas del proceso mediante la metodología HFMEA, se priorizaron las actuaciones que se querían implementar: ‐
Identificar nuevos hitos y registros necesarios durante la gestión de proyectos: características de la entidad y recursos para la visita. ‐
Control de actuaciones: diseño de autoauditorías y revisión del control de plazos en la aplicación informática ME_joraC. ‐
Revisar y actualizar el procedimiento de control de autoevaluación y de visitas de evaluación. ‐
Definir criterios para confirmar la viabilidad de las visitas. ‐
Formación interna sobre cómo y cuándo registrar. Los resultados de la implementación de intervenciones para mejorar se reflejan en la segunda parte de las Hojas Resumen del HFMEA (Anexo 4). 1ª Evaluación 2ª Evaluación Mejora absoluta p1 (IC 95%) p2 (IC 95%) p2‐p1 Mejora relativa CRITERIOS p2‐p1/ 1‐p1
Valor estadístico en la distribución normal Significación estadística z p 1. Tras la presentación se registrarán las características del centro 36 (±11) 90 (±6) 54 84,3% 5,59 < 0,001 o unidad y los recursos necesarios para la visita. 2. Se pactará la fecha de la visita de evaluación al 90 (±7) 96 (±4) 6 60% 1,17 ns mes de la presentación. 3. La Agenda se enviará al mes de la 88 (±7) 94 (±5) 6 50% 1,05 ns presentación. 4. Informe sobre la actividad de la autoevaluación dos 78 (±9) 84 (±7) 6 27,3% 0,76 ns meses y medio antes de la visita. 5. Confirmación definitiva de la viabilidad 86 (±8) 98 (±3) 12 85,7% 2,21 0,014 de la fecha de visita 45 días antes de la misma. Tabla 8.‐ Resultados de primera y segunda evaluación. Mejora y significación estadística. 19
Un año después, se realizó la segunda evaluación. En la tabla 8 se presentan los resultados del cambio experimentado en el cumplimiento de los criterios entre la reevaluación (p2) y la evaluación (p1) expresados en términos de mejora absoluta y relativa. En términos absolutos, el criterio 1 es el que experimenta una mayor mejora. En términos relativos, se observa que los criterios que más han mejorado son el 5 y el 1, en los que se ha logrado aprovechar más del 80% de la mejora posible. Para estar seguros de que se trata de una mejora real, se calcula la significación estadística de la diferencia encontrada entre las dos evaluaciones. Rechazamos la hipótesis nula (no hay diferencia entre las evaluaciones) para valores de p≤0,05. En estos casos, aceptamos la hipótesis alternativa y consideramos que el test es significativo. Se obtienen valores estadísticamente significativos para los criterios 1 y 5. En la figura 4 se presenta la representación gráfica de los resultados conjuntos de las dos evaluaciones mediante el diagrama de Pareto antes‐después. Los datos para su elaboración están reflejados en la tabla 9. Primera evaluación CRITERIOS FRECUENCIA ABSOLUTA % Segunda evaluación FRECUENCIA ACUMULADA CRITERIOS
FRECUENCIA ABSOLUTA
% FRECUENCIA ACUMULADA
C1 32 52 % 52,46 C4 8 42,1 % 42,1 C4 11 70 % 18,03 C1 5 26,3 % 68,4 C5 7 82 % 11,48 C3 3 15,8 % 84,2 C3 6 92 % 9,84 C2 2 10,5 % 94,7 C2 5 100 % 8,20 C5 1 5,3 % 100,0 61 100 % 19 100 % Tabla 9.‐ Construcción del Diagrama de Pareto antes‐después. 20
REPRESENTACIÓN GRÁFICA DE LA COMPARACIÓN ENTRE LAS DOS EVALUACIONES MEJORA
Figura 4. Comparación gráfica de las dos evaluaciones. Diagrama de Pareto antes‐después (datos de la tabla 9) En el diagrama de Pareto se puede apreciar visualmente de forma clara la mejora conseguida en la segunda evaluación con respecto a la primera. 5. DISCUSIÓN Se considera un riesgo para una organización todo aquello que pueda suponer una amenaza cuyo impacto negativo se quiere minimizar. El análisis cualitativo de riesgos es normalmente una forma rápida y rentable de establecer prioridades para la planificación de la respuesta a los riesgos, y sienta las bases para el análisis cuantitativo. La técnica HFMEA, es una de las técnicas cualitativas de gestión del riesgo más profusamente utilizadas, normalmente en ámbitos distintos al sanitario (16, 17, 18). Cuando se aplica a procesos, consiste en valorar los fallos potenciales de un proceso para determinar las causas por las que estos se pueden producir y clasificarlos de acuerdo a su gravedad y a la probabilidad de que ocurran. Esta técnica se puede aplicar a procesos nuevos o a evaluar los que ya existen. En el ámbito sanitario diversos autores utilizan la técnica HFMEA para la mejora de la seguridad en los procesos de prescripción, validación y dispensación de medicamentos (19), en la elaboración de la nutrición pediátrica (20), la administración de medicamentos intravenosos en pacientes hospitalizados (21), así como en la administración de cloruro potásico y fosfato potásico (22). Otros procesos como las transfusiones (23) y la actividad del servicio de urgencias (24) han sido también evaluados por este método. Una limitación de nuestro estudio es su carácter local y la imposibilidad para establecer comparaciones con los problemas de calidad que puedan presentar organizaciones con procesos similares al nuestro, dado que no se han encontrado publicaciones al respecto. El proceso de certificación de centros y unidades sanitarias de la ACSA es un proceso complejo, estructurado en distintas fases y en el que intervienen distintos profesionales. El HFMEA se considera por tanto adecuado para su análisis, por lo que se seleccionó como método para abordar este trabajo. Una de las principales limitaciones de los análisis cualitativos es su componente subjetivo y dependiente de la experiencia del grupo de trabajo que analice el proceso, ya que en la fase de identificación, hay fallos que pueden pasar inadvertidos y otros ser sobrevalorados. Además, la aplicación de la matriz para la puntuación del riesgo puede dar lugar a valoraciones equívocas. 21
Mediante el análisis cuantitativo se asigna a los riesgos una cuantificación numérica que permite tomar decisiones en caso de incertidumbre y desarrollar respuestas efectivas a los riesgos. En la primera evaluación se observó un menor cumplimiento (mayor número de defectos de calidad) para los criterios C1: registro de características de la entidad, C4: informe actividad y C5: confirmación viabilidad; con un cumplimiento del 36 % (±11 %), 78 % (±9 %) y 86 % (±8 %) respectivamente. Los criterios C1 y C4 constituían el 70 % de la frecuencia relativa de incumplimientos. Se puso de manifiesto que uno de los principales errores del proceso (criterio 1) estaba relacionado con la falta de registros con información relevante sobre las características de los centros y unidades que se iban a evaluar. No disponer de esta información dificulta la elaboración de una agenda de visita adaptada a cada entidad y la asignación adecuada de los recursos necesarios para la visita: elaboración del equipo evaluador y gestión de necesidades para la visita de evaluación. También se detectaron errores en la fase de autoevaluación del proceso (criterio 4) por la ausencia de controles por parte de los evaluadores responsables de cada proyecto. Esto implicaba un desconocimiento del estado de la autoevaluación (tiene o no actividad, número de evidencias positivas y documentos, cumplimiento de estándares, qué plazo tienen previsto para finalizar, aclaración de dudas sobre el proceso, etc.). Finalmente, y por la gran importancia que tiene en el proceso, se decidió actuar también sobre otro de los errores detectados (criterio 5). El calendario de visitas de evaluación del área es gestionado por el responsable del proceso de certificación. Es preciso conocer el número y tipo de proyectos que se van a visitar en el mes siguiente para asignar los equipos evaluadores. Aunque las fechas de visita se cierran con la entidad al principio del proceso, el evaluador responsable debe confirmar esta fecha cuando se aproxima la visita. La realización de esta actuación está establecida en un mes y medio de antelación. La anulación de una visita de evaluación en fecha posterior al plazo establecido, puede tener consecuencias muy negativas sobre la organización: la distribución de proyectos entre evaluadores internos queda 22
descompensada, los evaluadores externos pueden haber suspendido otras actividades de sus agendas para dar respuesta a la visita, se han gestionado las reservas de hoteles y de medios de transporte, no queda margen para asignar fecha de visita a otro proyecto en su lugar, etc. Por este motivo, se consideró que los errores cometidos en este aspecto del proceso también tenían que ser reducidos. Las intervenciones para la mejora deben ser congruentes con la importancia del riesgo, tener un coste adecuado, ser aplicadas en su debido tiempo, ser realistas dentro del contexto del proceso, estar acordadas por todas las partes implicadas y estar a cargo de una persona responsable. Una de las mejoras, identificada por el equipo de trabajo como la más efectiva, ha sido el diseño de un modelo de autoauditoría para que cada evaluador la aplique mensualmente a los proyectos de los que es responsable. Para su realización de definieron los hitos y registros imprescindibles para la adecuada gestión de los proyectos. Se incluyó el registro obligatorio de las características de la entidad, aspecto que anteriormente no teníamos contemplado en el procedimiento de gestión de visitas. También se realizaron sesiones internas donde se presentaron los resultados de la primera evaluación realizada, se concretaron las actualizaciones necesarias en los procedimientos de control de autoevaluación y de visitas de evaluación, se estableció la periodicidad para la realización de las autoauditorías y se incidió especialmente en la necesidad de alcanzar mejores resultados en el último hito definido: confirmación de la fecha de visita con 45 días de antelación, o anulación en su caso. Periódicamente se realizan auditorías de proyectos por parte de la dirección del área. En la aplicación informática ME_joraC se introdujeron algunas mejoras para permitir la explotación de los datos necesarios para auditar los proyectos. De esta forma, el apartado de registro de actuaciones, ahora permite clasificarlas según los distintos tipos que se han definido. También se ha mejorado el apartado de control de plazos, donde se identifican claramente los proyectos que aún tienen determinadas actuaciones pendientes. 23
El análisis cuantitativo debe repetirse también después de la planificación de la respuesta a los riesgos, para determinar si el riesgo general del proceso ha sido reducido satisfactoriamente. En nuestro estudio, la aplicación de las medidas identificadas ha permitido reducir los riesgos del proceso y se ha obtenido una mejora en los resultados. En este sentido, después de las intervenciones, las principales mejoras obtenidas estuvieron en relación con la confirmación de la viabilidad de la visita en el plazo establecido (criterio 5) y con el registro de las características de la entidad (criterio 1), obteniéndose para ambos criterios valores estadísticamente significativos. Analizando el diagrama de Pareto antes‐después se observa que la mejora conseguida es amplia y significativa. A pesar de que la adecuada gestión de proyectos en las primeras fases del proceso de certificación venía siendo uno de los objetivos individuales, ligados a incentivos, de cada evaluador del área de certificación de centros y unidades desde años anteriores, se continuaban identificando fallos en el proceso. Las mejoras introducidas en esta etapa apuestan por una mayor implicación y concienciación de los propios evaluadores sobre el efecto que unos mejores resultados puede tener sobre la satisfacción de nuestros clientes, así como de la propia organización derivada del trabajo “bien hecho”. Esto puede ayudar a otras organizaciones similares a la nuestra que deseen implantar mejoras en sus procesos. No obstante, aún queda margen para la mejora, en especial para los criterios C4, C1 y C3. De este modo, nos planteamos seguir mejorando los resultados de estos criterios hasta alcanzar el óptimo y pasar a la monitorización, a fin de asegurarnos que se mantiene el nivel de calidad logrado. Cuando, como en nuestro caso, el análisis del proceso de una sola vez resulta demasiado complejo, se puede comenzar por el análisis de las fases que se prioricen. Por este motivo se comenzó realizando un análisis de las fases de presentación y autoevaluación, hasta la preparación de la visita de evaluación, que eran las que habían presentado el problema objetivo de este estudio. Queremos continuar aplicando esta metodología de forma sucesiva a las siguientes fases del proceso: evaluación y seguimiento. 24
25
Además, el análisis cualitativo de riesgos deberá ser revisado continuamente durante el ciclo de vida del proceso para que esté actualizado con los cambios en los posibles riesgos del proceso. 26
6. BIBLIOGRAFÍA 1.
Saturno PJ: Cómo definimos Calidad. Opciones y características de los diversos enfoques y su importancia para los programas de gestión de la calidad. Manual del Máster en gestión de la calidad en los servicios de salud. Módulo 1: Conceptos básicos. Unidad temática 1. 2ª Ed. Universidad de Murcia, 2008. ISBN:978‐84‐8371‐752‐3. Depósito legal: MU‐1653‐2008. 2.
Saturno PJ: Estrategias de implantación. Diseño de un plan de actividades para la implantación de un programa de gestión de la calidad. Manual del Máster en gestión de la calidad en los servicios de salud. Módulo 2: Diseño e implantación de programas de gestión de la calidad. Unidad temática 4. 2ª Ed. Universidad de Murcia, 2008. ISBN: 978‐84‐8371‐753‐0. Depósito legal: MU‐1654‐2008. 3.
Agencia de Calidad Sanitaria de Andalucía. http://www.juntadeandalucia.es/agenciadecalidadsanitaria 4.
Juan R. Villalbí et al. Gestión de calidad en una organización de salud pública. Gaceta Sanitaria. Volume 26, Issue 4, July–August 2012, Pages 379–382 5.
Groene et al. Investigating organizational quality improvement systems, patient empowerment, organizational culture, professional involvement and the quality of care in European hospitals: the “Deepening our Understanding of Quality Improvement in Europe (DUQuE)” project. BMC Health Services Resarch 2010, 10:281 6.
Pedro Francisco Tamayo García et al. Los enfoques mundiales de la gestión de la calidad. Una mirada desde los modelos y premios de excelencia. Ingeniare, Universidad Libre‐Barranquilla, Año 6, No. 11, pp. 99‐113 7.
Alkhenizan A, Shaw C. Impact of Accreditation on the Quality of Healthcare Services: A Systematic Review of the Literature. Annals of Saudi Medicine. 2011;31:407. 8.
Sunol R, Vallejo P, Thompson A, Lombarts MJMH, Shaw CD, Klazinga N. Impact of quality strategies on hospital outputs. Quality and Safety in Health Care. 2009;18:62‐8. 9.
Sekimoto M, Imanaka Y, Kobayashi H et al. Impact of hospital accreditation on infection control programs in teaching hospitals in Japan. American Journal of Infection Control. 2008;36:212‐9. 10. Erbault M, Glikman J, Ravineau M, Lajzerowicz N, Terra J. Promoting quality improvement in French healthcare organisations: design and impact of a compendium of models and tools. Quality and Safety in Health Care. 2003;12:372‐6. 11. Greenfield D, Braithwaite J. Health sector accreditation research: a systematic review. International Journal for Quality in Health Care. 2008;20:172‐83. 12. Nicklin W, Dickson S. The Value and Impact of Accreditation in Health Care: A Review of the Literature. Otawa: Accreditation Canada; 2009. 13. Agencia de Calidad Sanitaria de Andalucía. Programa de Acreditación de Unidades de Gestión Clínica. Versión ME 5 1_06. Sevilla: Fundación Agencia de Calidad Sanitaria de Andalucía; 2012 27
14. Agencia de Calidad Sanitaria de Andalucía. Documento General DG‐06.02.01 Certificación de Centros y Unidades Sanitarias (Rev. 4). 22 de Febrero de 2013. 15. Saturno PJ: Seguridad del paciente. Marco conceptual. Enfoques y actividades. Manual del Máster en gestión de la calidad en los servicios de salud. Módulo 6: Seguridad del paciente. Unidad Temática 33. 1ª Ed. Universidad de Murcia 2008. ISBN: 978‐84‐8371‐750‐9. Depósito legal: MU‐1488‐2008. 16. Sheng‐Hsien (Gary) Teng, Shin‐Yann (Michael) Ho, (1996) "Failure mode and effects analysis: An integrated approach for product design and process control", International Journal of Quality & Reliability Management, Vol. 13 Iss: 5, pp.8 – 26. 17. Steven Kmenta, Peder Fitch, Kosuke Ishii. Advanced failure modes and effects analysis of complex processes. 1999 ASME Design Engineering Technical Conferences September 12 ‐ 15, 1999, Las Vegas, Nevada. 18. Stamatis, D.H., 1995, Failure Mode and Effect Analysis: FMEA from Theory to Execution, ASQC Quality Press, Milwaukee, WI. 19. E. Delgado Siveira, A. Álvarez Díaz, C. Pérez Menéndez‐Conde. Análisis modal de fallos y efectos del proceso de prescripción, validación y dispensación de medicamentos. Farmacia Hospitalaria. 2012; 36(1):24‐32. www.elservier.es/farm/hosp 20. Bonnabry P, Cingria L, Sadeghipour F, Ing H, Fonzo‐Christe C, Pfister RE. Use of a systematic risk analysis method to improve safety in the production of paediatric parenteral nutrition solutions. Qual. Saf. Health Care. 2005; 14:93‐8. 21. Robinson DL, Heigahm M, Clarck J. Using failure mode and effects analysis for safe administration of chemotherapy to hospitalized children with cáncer. J. Qual. Pat. Safety. 2006: 32: 161‐5. 22. Rosmin Esmail, Cheryl Cummings, Deonne Dersch. Using healthcare failure mode and effect analysis tool to review the process of ordering and administrating potassium chloride and potassium phosphate. Healthcare Quarterly. 2005; 8: 73‐80. 23. Burgmeier J. Failure mode and effect analysis: an application in reducing risk in blood transfusión. Jt. Comm. J. Qual. Improv. 2002; 28: 331‐9. 24. Redfern E, Brown R, Vincent CA. Identifying vulnerabilities in communication in the emergency department. Emerg. Med. 2009; 26: 658‐61. 28
Anexo 1. Proceso de certificación de centros y unidades 29
Anexo 2. Listado de posibles fallos 1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
Incumplimiento de plazos administrativos para revisión y aceptación de la solicitud. Documentación aportada por el solicitante es errónea. Error en identificación del ámbito y alcance. Retraso en presentación del proyecto. No se registra fecha de presentación. Retraso en apertura fase de autoevaluación. No se identifican necesidades de recursos para la visita. Los mensajes de presentación no son leídos. Incumplimiento de plazos para fijar fecha visita. Error en registros de fecha de visita. No se descargan la Agenda e Indicaciones. No envían cuadro de mando cumplimentado. No se confirma viabilidad de la visita. No hay registros de otras actuaciones en el proyecto. Anulaciones de visitas con el equipo ya formado. No se envía la carta de anulación de fecha. Se supera el plazo para cerrar autoevaluación. No se asignan recursos para la visita. Los recursos asignados no dan respuesta a las necesidades. No se envía el equipo evaluador. No se envía la selección de números de HC. Errores de organización de la visita (horario, punto de encuentro, referentes) Un evaluador no tiene la guía actualizada. Un evaluador no acude a la visita de evaluación. Incumplimiento de plazos elaboración informe. Error al colgar informe definitivo en carpeta virtual. Errores en el informe. Incumplimiento de plazos para cerrar RS y EE. No se incluye un tema en el Comité. Las actas o resoluciones contienen errores. Resolución errónea enviada al solicitante. Datos en página web no actualizados. Incumplimiento de plazos para realizar actuaciones del comité. No se envía la carta con la fecha de visita de seguimiento asignada. No se abre fase de autoevaluación de seguimiento. No se envían mensajes tipo en el seguimiento. No se asigna evaluador para la visita de seguimiento. Un evaluador no acude a la visita de evaluación. Incumplimiento de plazos para emitir el informe de seguimiento. Incumplimiento de plazos para cerrar fase de apercibimiento y/o suspensión. No se envía la carta comunicando proximidad del fin de vigencia. 30
Anexo 3. Árbol decisional F1. Incumplimiento de plazos para fijar fecha visita. Gravedad Probabilidad Resultado importante frecuente ¿Existe una medida efectiva para controlar el riesgo identificado? SI 12 STOP Disponemos de un apartado en “control de plazos” de los proyectos donde aparecen los proyectos presentados que no tienen fecha de visita asignada después de 30 días. Se realizan autoauditorías de proyectos mensualmente por parte de cada responsable. Se realiza informe mensual con control de proyectos en esta situación y se toman medidas para corregir este fallo. F2. No se descargan la Agenda e Indicaciones. Gravedad Probabilidad Resultado catastrófico ocasional ¿Existe una medida efectiva para controlar el riesgo identificado? 12 NO ¿La aparición del riesgo es tan obvia que no hace falta introducir una medida de control? NO continuar (acciones e indicadores) F3. No se confirma viabilidad de la visita. Gravedad Probabilidad Resultado importante frecuente ¿Existe una medida efectiva para controlar el riesgo identificado? SI 12 STOP Disponemos de un apartado específico en las actuaciones del proyecto para reflejar la viabilidad de la visita. Se realizan autoauditorías de proyectos mensualmente por parte de cada responsable. Se realiza informe mensual con control de proyectos en esta situación y se toman medidas para corregir este fallo. Además, está protocolizada la revisión de la viabilidad de la visita por parte de un jefe de proyecto antes de asignar los equipos evaluadores para la visita de evaluación. F4. No hay registros de otras actuaciones en el proyecto (además de viabilidad). 31
Gravedad Probabilidad Resultado importante frecuente ¿Existe una medida efectiva para controlar el riesgo identificado? 12 NO ¿La aparición del riesgo es tan obvia que no hace falta introducir una medida de control? NO continuar (acciones e indicadores) F5. Anulaciones de visitas con el equipo ya formado. Gravedad Probabilidad Resultado importante ocasional ¿Existe una medida efectiva para controlar el riesgo identificado? 9 NO ¿La aparición del riesgo es tan obvia que no hace falta introducir una medida de control? NO continuar (acciones e indicadores) F6. Errores de organización de la visita (horario, punto de encuentro, referentes) Gravedad Probabilidad catastrófico ocasional ¿Existe una medida efectiva para controlar el riesgo identificado? Resultado 12 NO ¿La aparición del riesgo es tan obvia que no hace falta introducir una medida de control? NO continuar (acciones e indicadores) Anexo 4. Hojas Resumen del HFMEA 32
33 Informe de Fase “Seguimiento de Autoevaluación”
Resumen del Paso 4: Análisis del riesgo Tipo de acción (Controlar, Aceptar, Eliminar) Acciones o razones para parar Indicadores de resultado Persona responsable ¿Continuar? Detectabilidad ¿Existen medidas de control? Acuerdo del nivel gestor Análisis decisional
Puntuación Probabilidad No hay contacto telefónico para comentarla ocasional F2 (d)
No saben acceder Poco común F2 (c)
No se envía mensaje ocasional F2 (b)
No se envía la Agenda Poco común F2 (a)
Poco común F2. No se descargan la Agenda e Indicaciones. Gravedad Causas Potenciales catastrófico catastrófico Modo de fallo: catastrófico importante catastrófico Puntuación
¿Punto crítico? Paso 5: Identificar acciones e indicadores de resultado 12 8 no no Si Controlar Incluir listado de proyectos sin Agenda en control de plazos Ausencia de proyectos en esta situación APR Si 12 no no Si Controlar Incluir en auditorías proyectos Resultados auditoría APR Si 6 no si no N/A Es detectable que no sepan acceder a Carpeta Virtual 8 no no si controlar Revisar y difundir procedimiento visitas evaluación Procedimiento revisado AGT Si 34 Informe de Fase “Seguimiento de Autoevaluación”
F4 (a)
F4 (b)
No hay contactos durante autoevaluac
ión No se utiliza apartado actuaciones 8 no si Tipo de acción (Controlar, Aceptar, Eliminar) Acciones o razones para parar Indicadores de resultado no no si controlar Además de la viabilidad, se deben protocolizar otros contactos durante la autoevaluación no no si controlar Formación sobre cómo y cuándo registrar Persona responsable ¿Continuar? ¿Existen medidas de control? no Detectabilidad 12 12 Puntuación Probabilidad frecuente F4. No hay registros de otras actuaciones en el proyecto. frecuente Causas Potenciales frecuente Gravedad Modo de fallo: importante Análisis decisional
moderado importante Puntuación
¿Punto crítico? Paso 5: Identificar acciones e indicadores de resultado Acuerdo del nivel gestor Resumen del Paso 4: Análisis del riesgo Registros en actuaciones JAC Si Formación realizada JAC Si 35 Informe de Fase “Preparación visita de Evaluación”
F5(a) 8 3 remota Situaciones especiales (enfermeda
d, catástrofe, huelgas) importante F5 (b)
no si Tipo de acción (Controlar, Aceptar, Eliminar) Acciones o razones para parar no no no no si si Indicadores de resultado controlar No se forman equipos evaluadores para visitas que no estén confirmadas. Pero esta confirmación debe ser “definitiva”: definir criterios para confirmar viabilidad de una visita Criterios de confirmación de viabilidad definidos aceptar Cuando el problema es de un evaluador, se sustituye por otro. Cuando es del solicitante, hay que aceptar la situación y cambiar la fecha de la visita. Persona responsable ¿Existen medidas de control? no ¿Continuar? No confirmada viabilidad catastrófico 9 Detectabilidad F5. Anulaciones visitas con equipo formado. Análisis decisional
Puntuación Causas Potenciales Probabilidad ocasional Modo de fallo: Poco común Gravedad importante Puntuación
¿Punto crítico? Paso 5: Identificar acciones e indicadores de resultado APR Acuerdo del nivel gestor Resumen del Paso 4: Análisis del riesgo Si 36 Informe de Fase “Preparación visita de Evaluación”
Resumen del Paso 4: Análisis del riesgo F6 (c)
F6 (d)
No hay contacto entre miembros del equipo Errores de comunicació
n (mal entendido) La Agenda tiene un error 8 12 6 si no no no si no no si no no no no si si si no Tipo de acción (Controlar, Aceptar, Eliminar) Acciones o razones para parar Indicadores de resultado Persona responsable ¿Existen medidas de control? ¿Continuar? 8 Detectabilidad 12 Acuerdo del nivel gestor Análisis decisional
Puntuación Probabilidad ocasional Poco común Poco común F6 (b)
No hay contacto previo con el solicitante frecuente F6 (a)
ocasional F6. Errores de organización de la visita (horario, punto de encuentro, referentes, falta documentaci
ón) Gravedad Causas Potenciales catastrófico Catastrófico Modo de fallo: importante moderado Catastrófico Puntuación
¿Punto crítico? Paso 5: Identificar acciones e indicadores de resultado controlar Diseñar Check‐list previo a la visita Check‐list realizado OCS Si controlar Protocolizar el contacto previo entre los miembros del equipo (mensaje ZC o llamada) para confirmar agenda. Incluido en procedimiento AGT Si controlar Además de mensajes y Agenda es imprescindible una llamada que nos deje claro que todo está entendido Registros en actuaciones Responsabl
e del proyecto N/A Existen formas de controlar que no hay errores en la Agenda, ya que es necesario también contactar previamente con los responsables para comentarla. 
Descargar