Modelo de proliferación de errores médicos

Ir a: navegación, búsqueda de

El Error profesional de la salud modelo de proliferación es una adaptación de James Reason Modelo del queso suizo diseñado para ilustrar el complejidad inherente a lo contemporáneo cuidado de la salud sistema de entrega y la atribución de los errores humanos dentro de estos sistemas. El modelo de proliferación de errores médicos[1] explica la etiología del error y la secuencia de eventos por lo general conduce a resultados adversos. Este modelo enfatiza el rol organizacional y culturas externas contribuyen a la identificación de errores, prevención, mitigación y construcción de la defensa.

Contenido

  • 1 Introducción
  • 2 Resumen del modelo
    • 2.1 Definiciones
  • 3 Véase también
  • 4 Citas
  • 5 Referencias
  • 6 Otra literatura

Introducción

Sistemas de salud son complejo en eso son diversas tanto en estructura (por ejemplo enfermería unidades, farmacias, servicios de urgencias, quirófanos) y profesional la mezcla (por ejemplo, enfermeras, médicos, farmacéuticos, administradores, terapeutas) y compuesto por múltiples elementos interconectados con adaptable tendencias tienen la capacidad de cambiar y aprender de la experiencia. El término sistemas adaptativos complejos (CAS) fue acuñado en el interdisciplinario Instituto de Santa Fe (SFI), por John H. Holland, y Murray Gell-Mann. Posteriormente, investigadores como Ruth A. Anderson, Rubin McDaniels, y Paul Cilliers tienen extendido CAS teoría e investigación para las ciencias sociales como educación y salud.

Resumen del modelo

El modelo de proliferación de Error de Healthcare (HEPM) adapta el modelo de queso suizo[2] a la complejidad de los sistemas de administración de salud y organizaciones integradas. El modelo de queso suizo, compara el sistema adaptativo complejo con varias rebanadas de agujero infestado de queso suizo coloca lado a lado.[2][3] Las rebanadas de queso son como capas defensivas para describir su papel y función de la ubicación del sistema equipada con funciones capaces de interceptar y desviar el peligro. Las capas representan localizaciones discretas o niveles de la organización potencialmente poblados de errores que permita la progresión del error. Las cuatro capas son: 1) organizacional liderazgo, supervisión 2) arriesgada, 3) situaciones prácticas inseguras y rendimiento 4) inseguro.

El HEPM retrata a hospitales que tienen múltiples capas defensivas operacionales equipadas con los elementos esenciales necesarios para mantener barricadas defensivas claves (Cook & o ' Connor, 2005; Razón, 2000). Al examinar los atributos de capas defensivas, posibles escenarios de falla, la etiología de los accidentes podría ser revelada (Leape et al., 1995). Los expertos han discutido la importancia de examinar estas capas dentro del contexto del sistema sanitario adaptativo complejo (Kohn et al., 2000; Wiegmann y Shappell, 2003) y considerando la seguridad psicológica de los clínicos. Por lo tanto, este modelo amplía la obra seminal de la razón.

El modelo incorpora el sistema de salud adaptativo complejo como una característica clave. Sistemas adaptativos complejos demuestran característico uno mismo-organización como diversos agentes interactúan espontáneamente en las relaciones no lineales[4][5] donde profesionales actúan como procesadores de información (Cilliers, 1998; McDaniel y Driebe, 2001) y evolucionar conjuntamente con el medio ambiente (Casti, 1997). Función de profesionales de la salud en el sistema como diversos actores dentro del complejo entorno utilizando diferentes métodos para procesar información (Coleman, 1999) y resolver problemas sistémicos dentro y a través de las capas organizativas (McDaniel & Driebe, 2001).

Definiciones

Un sistema de salud complejo adaptativo (CAHS) es una empresa de entrega de atención con diversos agentes clínicos y administrativos actuando espontáneamente, interactuando en las redes no lineales donde agentes y pacientes son procesadores de información y co evolucionan activamente con su entorno con el propósito para producir resultados centrada en el paciente seguros y confiables.[6]

Véase también

  • Efecto adverso (medicina)
  • Evento adverso
  • Medicina basada en evidencia
  • Acreditación del hospital
  • Iatrogenesis
  • Trastorno iatrogénico
  • Acreditación internacional del healthcare
  • Error humano latente
  • Error médico
  • Atención de enfermería
  • Organización de la seguridad del paciente
  • Enfermería y seguridad del paciente
  • Peter Pronovost
  • Análisis de causa raíz
  • Evento adverso serio
  • Modelo del queso suizo de la causalidad de accidentes en los sistemas humanos

Citas

  1. ^ Palmieri, p. A., DeLucia, R. P., Ott, T. E., Peterson, L. T. & verde, A. (2008). La anatomía y fisiología del error en eventos médicos adversos. En E. Ford y G. Savage. Avances en gestión del cuidado de la salud 7. Grupo que publica Esmeralda. págs. 33-68. doi:10.1016/S1474-8231 (08) 07003-1.
  2. ^ a b Razón, J. T. (1990). Error humano. Prensa de la Universidad de Cambridge. ISBN0-521-31419-4.
  3. ^ Razón, J. T. (2000). "Error humano: modelos y gestión". British Medical Journal 320 (7237): 768 – 70. doi:10.1136/bmj.320.7237.768. PMC1117770. PMID10720363.
  4. ^ Anderson, r. A., Issel, M. L. y McDaniel, r. R (2003). "Hogares de ancianos como sistemas complejos adaptativos: relación entre prácticas de gestión y resultados residentes". Investigación de enfermería 52 (1): 12 – 21. doi:10.1097/00006199-200301000-00003. PMC1993902. PMID12552171.
  5. ^ Cilliers, P. (1998). Complejidad y post modernismo: comprensión de sistemas complejos. Nueva York: Routledgel. ISBN978-0-415-15286-0.
  6. ^ Palmieri, p. A., DeLucia, R. P., Ott, T. E., Peterson, L. T. & verde, A. (2008). La anatomía y fisiología del error en eventos médicos adversos. Avances en gestión del cuidado de la salud. Avances en gestión del cuidado de la salud 7:: 33-68. doi:10.1016/S1474-8231 (08) 07003-1. ISBN978-1-84663-954-8.

Referencias

Artículos

  • Anderson, r. A., Issel, M. L. y McDaniel, r. r. (2003). Hogares de ancianos como sistemas complejos adaptativos: relación entre prácticas de gestión y resultados residentes. Investigación de enfermería, 52: 12-21.
  • Berta, W. B. & Baker, R. (2004). Factores que afectan la transferencia y la retención de las mejores prácticas para la reducción de errores en los hospitales. Examen de gestión del cuidado de la salud, 29: 90-97.
  • Chiles, J. R. (2002). Invitando a los desastres: lecciones desde el borde de la tecnología. Nueva York: HarperCollins Publishers.
  • Coleman, J. H. (1999). ¿Qué permite comportamiento uno mismo-organización en el negocio. Aparición, 1: 33-48.
  • Cook, R. I., Render, M. & Woods, D. D. (2000). Lagunas en la continuidad de cuidados y avances en seguridad del paciente. British Medical Journal, 320(7237): 791-794.
  • Leape, L. L., Bates, D. w. Cullen, D. J., Cooper, J., H. J., Demonaco, Gallivan, T., r., H., Ives, J., Laird, N., Laffel, G., Nemeskal, R., Peterson, L. A., Porter, K., Servi, D., Shea, B. F., pequeño, S. D., Sweitzer, B. J., Thompson, T. B. y van der Vliet, M. (1995). Sistemas de análisis de eventos adversos de la droga. Grupo de estudio de la prevención de ADE. Journal of the American Medical Association, 274(1): 35-43.
  • Leape, L. L. y Berwick, M. D. (2005). Cinco años después de que "Errar es humano": ¿Qué hemos aprendido? Journal of the American Medical Association, 293(19): 2384-2390.
  • Leduc, p. A., erupción, C. E. & Manning, M. S. (2005). Factores humanos en UAV accidentes, tecnología especial de las operaciones, Online edition ed., Vol. 3.
  • Leonard, L. M., Frankel, A. y Simmonds, T. (2004). Conseguir atención médica segura y confiable: estrategias y soluciones. Chicago: Prensa de la administración de salud.
  • Rasmussen, J. (1990). El papel del error en la organización de comportamiento. Ergonomía, 33: 1185-1199.
  • Rasmussen, J. (1999). ¿El concepto de error humano: es útil para el diseño de sistemas de seguros de salud? En Vincent C. & B. deMoll (eds.), riesgo y seguridad en medicina: 31-47. Londres: Elsevier.
  • Razón, J. T. & Mycielska, K. (1982). ¿Distraído? La psicología mental decae y errores todos los días. Acantilados de Englewood, NJ: Prentice-Hall Inc.
  • Razón, J. T. (1990). Error humano. Nueva York: Cambridge University Press.
  • Razón, J. T. (1997). La gestión de los rosks de accidentes organizacionales. Aldershot: El publicar de Ashgate.
  • Razón, J. T. (1998). Gestión de los riesgos de accidentes organizacionales. Aldershot, Inglaterra: Ashgate.
  • Razón, J. T. (2000). Error humano: modelos y gestión. British Medical Journal, 320, 768-770.
  • Razón, J. T., Carthey, J. & de Leval, M. R. (2001). Diagnóstico de síndrome de vulnerables del sistema: un requisito previo esencial para la gestión de riesgos eficaz. Calidad en salud, 10(S2): 21-25.
  • Razón, J. T. & Hobbs, A. (2003). Gestión de errores de mantenimiento: una guía práctica. Aldershot, Inglaterra: Ashgate.
  • Roberts, K. (1990). Algunas de las características de un tipo de organización de alta confiabilidad. Organization Science, 1: 160-176.
  • Roberts, K. H. (2002). Sistemas de alta confiabilidad. Informe sobre el Instituto del Comité de medicina en los estándares de datos para seguridad del paciente en 23 de septiembre de 2003.

Libros

Cilliers, p. (1998) complejidad y post modernismo: comprensión de sistemas complejos. Nueva York: Routledge. (ISBN 978-0415152860)

Otra literatura

Teoría de la complejidad

  • Holland, J. H. (1992). Adaptación en sistemas naturales y artificiales. Cambridge, MA: MIT Press. (ISBN 978-0262581110)
  • Holland, J. H. (1995). Oculta la orden: cómo la adaptación construye complejidad. Lectura, MA: Libros de hélice. (ISBN 978-0201442304)
  • Holland, J. H. (1998). Emergencia: del caos al orden. Lectura, MA: Addison-Wesley. (ISBN 978-0738201429)
  • Waldrop, M. M. (1990). Complejidad: La ciencia emergente en el borde del orden y el caos. Nueva York: Simon & Schuster (ISBN 978-0671767891)

Otras Páginas

Obtenido de»https://en.copro.org/w/index.php?title=Healthcare_error_proliferation_model&oldid=621642284"