Menselijke fout: verschil tussen versies

Verwijderde inhoud Toegevoegde inhoud
Albert Kok (overleg | bijdragen)
Albert Kok (overleg | bijdragen)
Regel 49:
 
===Systeemfouten===
Als er fouten worden gemaakt in een werkomgeving zoals een ziekenhuis, operatiekamer, of het vlieg- of treinverkeer wordt meestal het individu hiervoor verantwoordelijk gesteld. Hij of zij is immers opgeleid om de taak efficiënt en zonder fouten uit te voeren. Men spreekt dan bijvoorbeeld van een [[medische fout]], een [[pilotenfout]] (''pilot error'') of bestuurdersfout. Fouten kunnen echter ook samenhangen met het [[management]] of bedrijfsstructuur.<ref>Reason J. Human error: models and management (2000) BMJ; 320:768–70</ref> Zo kunnen fouten in de organisatie of bedrijfsvoering leiden tot een te grote werkdruk, het ontbreken van duidelijke richtlijnen of veiligheidsvoorschriften, of het aanstellen van onvoldoend geschoold personeel. Deze factoren kunnen de kans op menselijke fouten vergroten. Ook kan een fout liggen in apparatuur of een technisch ontwerp. Zo kan een onoverzichtelijk instrumentenpaneel in een vliegtuig de kans vergroten dat een piloot in een stresssituatie op de verkeerde knop drukt. OngelukkenEen inverhoogde bedrijvendruk ontstaanom daneen ooktechnisch vaakproduct alste gevolgproduceren kan leiden tot het onvoldoende inachtnemen van eende samengaanveiligheidseisen. ofDit eenargument is bijvoorbeeld naar voren gebracht naar 'optelsom'aanleiding van individuelehet foutenverongelukken envan zwakkehet [[ruimteveer]] [[Columbia]] bij terugkeer naar de plekkenaarde in het2003. bedrijfssysteemDoor de onderzoekscommissie is toen vooral de bedrijfscultuur van [[NASA]] scherp bekritiseerd <ref>Starbuck,W. H. and M. Farjoun (Eds.) (2005), Organization at the Limit: Lessons from the Columbia Disaster. Malden, MA: Blackwell Publishing
</ref>
 
[[Bestand:Space Shuttle Columbia launching.jpg|250px|right|thumb|Het ruimteveer Columbia dat in 2003 verongelukte bij terugkeer naar aarde]]
Ongelukken in bedrijven ontstaan dan ook vaak als gevolg van een samengaan of een 'optelsom' van individuele fouten en zwakke plekken in het bedrijfssysteem. Jim Reason maakte in dit verband onderscheid tussen 'actief falen' en 'latent falen'. Actief falen slaat op de fouten in de taakuitvoering van een individu, latent falen op fouten in het systeem. Deze laatste fouten kunnen lange tijd een verborgen of een sluimerend bestaan leiden, totdat zij op een kritiek moment aan het licht komen. De term die Reason voor dit soort situaties bedacht was het [[gatenkaasmodel]]. Volgens dit model is een ongeluk het gevolg van het samenvallen van de latente en actieve gebreken of gaten in een aantal verdedigingslagen of veiligheidsmaatregelen van een systeem. Een soortgelijke visie over de rol van systemen is ontwikkeld door [[Charles Perrow|Perrow]]. Deze stelde dat een systeem zo complex kan worden dat niemand het geheel kan overzien. Bij een dergelijk [[complex systeem]] zijn [[Systeemongeluk|systeemongevallen]] volgens Perrow onvermijdelijk en daarmee 'normaal'. Zo kan bijvoorbeeld in een grootschalige bedrijfssysteem achteraf worden vastgesteld wat de menselijke fouten waren. Echter, het ongeval op zich lijkt dan niet toe te schrijven aan louter individueel menselijk falen maar aan de complexiteit waardoor niemand in staat is om latente systeemfouten voortijdig te onderkennen, mede door de [[beperkte rationaliteit]] van mensen die niet over alle kennis kunnen beschikken en ook niet de tijd hebben om alle alternatieven te overwegen.
 
==Fouten en ongevallen==