Model švicarskega sira

Model švicarskega sira za vzroke nesreč ali Reasonov patogeni model je model, ki se uporablja pri analizi in obvladovanju tveganja na različnih področjih, vključno z letalsko varnostjo, inženirstvom, zdravstvom in službami nujne pomoči, in kot ponazoritev načela večplastne varnosti, ki se uporablja na področju računalniške varnosti in globinske obrambe. Človeški sistemi so predstavljeni z več rezinami švicarskega sira, zloženimi druga ob drugi, pri čemer tveganje za uresničnitev nevarnosti zmanjšujejo različne plasti in vrste obramb, postavljenih druga za drugo. Teoretično se nevarnosti kljub napakam in slabostim posamezne vrste obrambe ne uresničijo, saj kritično točko odpovedi preprečujejo druge vrste obrambe. Model sta prva formalno predstavila Dante Orlandella in James T. Reason z Univerze v Manchestru[1] in se je od takrat splošno uveljavil. Včasih ga imenujejo »učinek kumulativnega ukrepanja«.

Model švicarskega sira za vzroke nesreč ponazarja, da je med nevarnostjo in nesrečo sicer več plasti, vendar so v vsaki plasti pomanjkljivosti, ki lahko ob medsebojni poravnavi privedejo do nesreče.
Model švicarskega sira na primeru pandemije koronavirusne bolezni 2019

Čeprav velja model švicarskega sira za primeren in koristen način povezovanja konceptov, so kritiki večkrat opozorili, da se uporablja preširoko, brez ustrezne podpore in brez zadostnega upoštevanja drugih modelov.[2]

Področja napak uredi

Reason je predpostavil, da je mogoče večino nesreč pripisati enemu od štirih področij napak: organizacijskim vplivom, nadzoru, začetnim okoliščinam in posebnim dejanjem.[3] [4] Tako spadajo v letalstvu med začetne okoliščine nevarnega ravnanja utrujenost letalske posadke in neustrezne komunikacijske prakse. Nevarni nadzor zajema na primer združevanje neizkušenih pilotov na nočnem letu ob znanem neugodnem vremenu. Organizacijski vplivi zajemajo stvari, kot je zmanjšanje izdatkov za usposabljanje pilotov v času finančnega varčevanja.[5] [6]

Luknje in rezine uredi

Pri modelu švicarskega sira se obramba organizacije pred odpovedjo modelira kot vrsta pregrad, predstavljenih z rezinami sira. Luknje v rezinah predstavljajo pomanjkljivosti posameznih delov sistema in na rezinah neprestano spreminjajo svojo velikost in položaj. Odpoved sistema se zgodi, ko se za trenutek poravnajo luknje na vseh rezinah, kar (z Reasonovimi besedami) ustvari »pot nesreče«, pri čemer nevarnost prodre skozi luknje vseh rezin in pvozroči odpoved.[7] [8] [9] [6]

Frosch[10] je Reasonov model matematično opisal kot model perkolacijske teorije in ga analiziral kot Bethejevo mrežo.

Aktivne in prikrite napake uredi

Model vključuje aktivne in prikrite napake. Aktivne napake zajemajo nevarna dejanja, ki jih lahko neposredno povežemo z nesrečo, na primer (pri letalskih nesrečah) navigacijske napake. Prikrite napake vključujejo dejavnike, ki lahko ostanejo več dni, tednov ali mesecev prikriti, dokler ne privedejo do nesreče. Prikrite napake ustrezajo prvim trem področjem napak v Reasonovem modelu.[5]

Ob začetku uporabe modela švicarskega sira, od konca leta 1980 do približno leta 1992, so poskušali združiti dve teoriji: model večplastne obrambe Jamesa Reasona in tritočkovno teorijo o nastanku nesreč Willema Alberta Wagenaarja. V tem obdobju so shemo švicarskega sira predstavljali z rezinami, označenimi kot aktivne napake, začetne okoliščine in prikrite napake.

Ti poskusi združitve dveh teorij še danes povzročajo zmedo. Pri pravilnejši različici kombiniranih teorij so aktivne napake (zdaj imenovane neposredni vzroki), začetne okoliščine in prikrite napake (zdaj imenovana osnovni vzroki) razlog, zakaj ima vsaka pregrada (rezina sira) luknje, rezine sira pa ponazarjajo pregrade.

Uporaba uredi

 
Novozelandski model švicarskega sira za obvladovanje covida-19 [11]

Enako razlago lahko uporabimo tudi na nekaterih področjih varovanja zdravja. Prikrita napaka je lahko na primer podobna embalaža dveh zdravil, ki se v lekarni shranjujeta drugo ob drugem. Taka napaka bi lahko privedla do dajanja napačnega zdravila. Tovrstne raziskave so privedle do spoznanja, da so lahko medicinske napake posledica »sistemskih napak, ne pa napak značaja«, in da niso vzrok za napake le pohlep, nevednost, zloba ali lenoba.[12]

Lubnau in Okray[13] sta model uporabila pri načrtovanju gasilskih sistemov, da bi z »vstavljanjem dodatnih plasti sira v sistem«, in sicer s tehnikami vodenja timskega dela, zmanjšali pojavljanje človeških napak.

To je eden izmed številnih modelov, naštetih s sklici v Taylor in sod. (2004).[14]

Kamoun in Nicho[15] sta model švicarskega sira uporabila kot priročen teoretični model za razlago večstranskih (človeških, organizacijskih in tehničnih) vidikov kršitev varovanja zdravstvenih podatkov.

Glej tudi uredi

Sklici uredi

  1. Reason 1990.
  2. »Revisiting the Swiss cheese model of accidents« (PDF). Eurocontrol. Oktober 2006. Arhivirano iz prvotnega spletišča (PDF) dne 3. decembra 2020. Pridobljeno 1. decembra 2020.
  3. Doran, J.A.; van der Graaf, G.C. (1996). Tripod-BETA: Incident investigation and analysis. SPE Health, Safety and Environment in Oil and Gas Exploration and Production Conference, 9.–12. junij 1996. New Orleans, Louisiana: Society of Petroleum Engineers. doi:10.2118/35971-MS.
  4. Gower-Jones, A.D.; van der Graf, G.C. (1998). Experience with Tripod BETA Incident Analysis. SPE International Conference on Health, Safety, and Environment in Oil and Gas Exploration and Production, 7.–10. junij 1998. Caracas, Venezuela: Society of Petroleum Engineers. doi:10.2118/46659-MS.
  5. 5,0 5,1 Douglas A. Wiegmann; Scott A. Shappell (2003). A human error approach to aviation accident analysis: the human factors analysis and classification system. Ashgate Publishing. str. 48–49. ISBN 0754618730.
  6. 6,0 6,1 Stranks, J. (2007). Human Factors and Behavioural Safety. Butterworth-Heinemann. str. 130–131. ISBN 9780750681551.
  7. Daryl Raymond Smith; David Frazier; L W Reithmaier; James C Miller (2001). Controlling Pilot Error. McGraw-Hill Professional. str. 10. ISBN 0071373187.
  8. Jo. H. Wilson; Andrew Symon; Josephine Williams; John Tingle (2002). Clinical Risk Management in Midwifery: the right to a perfect baby?. Elsevier Health Sciences. str. 4–6. ISBN 0750628510.
  9. Tim Amos; Peter Snowden (2005). »Risk management«. V Adrian J. B. James (ur.). Clinical Governance in Mental Health and Learning Disability Services: A Practical Guide. Gaskell. str. 176. ISBN 1904671128.
  10. Robert A. Frosch (2006). »Notes toward a theory of the management of vulnerability«. V Philip E Auerswald (ur.). Seeds of Disaster, Roots of Response: How Private Action Can Reduce Public Vulnerability. Cambridge University Press. str. 88. ISBN 0521857961.
  11. Wiles, Siouxsie (22. oktober 2020). »Siouxsie Wiles & Toby Morris: Covid-19 and the Swiss cheese system«. The Spinoff. Pridobljeno 28. oktobra 2020.
  12. Patricia Hinton-Walker; Gaya Carlton; Lela Holden; Patricia W. Stone (30. junij 2006). »The intersection of patient safety and nursing research«. V Joyce J. Fitzpatrick (ur.). Annual Review of Nursing Research Volume 24: Focus on Patient Safety. Springer Publishing. str. 8–9. ISBN 0826141366.
  13. Thomas Lubnau II; Randy Okray; Thomas Lubnau (2004). Crew Resource Management for the Fire Service. PennWell Books. str. 20–21. ISBN 1593700067.
  14. Taylor, G. A.; Easter, K. M.; Hegney, R. P. (2004). Enhancing Occupational Safety and Health. Elsevier. str. 241–245, 140–141, 147–153. ISBN 0750661976.
  15. Faouzi Kamoun; Mathew Nicho (2014). Human and Organizational Factors of Healthcare Data Breaches: The Swiss Cheese Model of Data Breach Causation And Prevention, International Journal of Healthcare Information Systems and Informatics, 9(1). IGI Global. str. 42–60.

Viri uredi

Nadaljnje branje uredi