Menselijke fout: verschil tussen versies
Verwijderde inhoud Toegevoegde inhoud
Regel 49:
===Systeemfouten===
Als er fouten worden gemaakt in een werkomgeving zoals een ziekenhuis, operatiekamer, of het vlieg- of treinverkeer wordt meestal het individu hiervoor verantwoordelijk gesteld. Hij of zij is immers opgeleid om de taak efficiënt en zonder fouten uit te voeren. Men spreekt dan bijvoorbeeld van een [[medische fout]], een [[pilotenfout]] (''pilot error'') of bestuurdersfout. Fouten kunnen echter ook samenhangen met het [[management]] of bedrijfsstructuur.<ref>Reason J. Human error: models and management (2000) BMJ; 320:768–70</ref> Zo kunnen fouten in de organisatie of bedrijfsvoering leiden tot een te grote werkdruk, het ontbreken van duidelijke richtlijnen of veiligheidsvoorschriften, of het aanstellen van onvoldoend geschoold personeel. Deze factoren kunnen de kans op menselijke fouten vergroten. Ook kan een fout liggen in apparatuur of een technisch ontwerp. Zo kan een onoverzichtelijk instrumentenpaneel in een vliegtuig de kans vergroten dat een piloot in een stresssituatie op de verkeerde knop drukt.
</ref>
[[Bestand:Space Shuttle Columbia launching.jpg|250px|right|thumb|Het ruimteveer Columbia dat in 2003 verongelukte bij terugkeer naar aarde]]
Ongelukken in bedrijven ontstaan dan ook vaak als gevolg van een samengaan of een 'optelsom' van individuele fouten en zwakke plekken in het bedrijfssysteem. Jim Reason maakte in dit verband onderscheid tussen 'actief falen' en 'latent falen'. Actief falen slaat op de fouten in de taakuitvoering van een individu, latent falen op fouten in het systeem. Deze laatste fouten kunnen lange tijd een verborgen of een sluimerend bestaan leiden, totdat zij op een kritiek moment aan het licht komen. De term die Reason voor dit soort situaties bedacht was het [[gatenkaasmodel]]. Volgens dit model is een ongeluk het gevolg van het samenvallen van de latente en actieve gebreken of gaten in een aantal verdedigingslagen of veiligheidsmaatregelen van een systeem. Een soortgelijke visie over de rol van systemen is ontwikkeld door [[Charles Perrow|Perrow]]. Deze stelde dat een systeem zo complex kan worden dat niemand het geheel kan overzien. Bij een dergelijk [[complex systeem]] zijn [[Systeemongeluk|systeemongevallen]] volgens Perrow onvermijdelijk en daarmee 'normaal'
==Fouten en ongevallen==
|