Bez winy postmortems

Ukończone

Organizacje, które praktykują metodykę DevOps, chcą postrzegać błędy w celu nauki. Obwinianie pośmiertnych przestojów i wypadków jest częścią tego celu.

Posiadanie kultury sprawiedliwości oznacza, że podejmujesz wysiłek, aby zrównoważyć bezpieczeństwo i odpowiedzialność. Oznacza to, że badając błędy w sposób, który koncentruje się na sytuacyjnych aspektach porażki i na procesie podejmowania decyzji osób bliskich awarii, organizacja może wyjść bezpieczniej niż gdyby ukarała zaangażowanych ludzi.

Bez przypisywania winy analiza poincydentowa oznacza, że inżynierowie, których działania przyczyniły się do wypadku, mają możliwość przedstawienia szczegółowej relacji.

  • Jakie działania podjęli w jakim czasie.
  • Jakie efekty zaobserwowali.
  • Jakie oczekiwania mieli.
  • Jakie założenia założyli.
  • Zrozumienie osi czasu zdarzeń w miarę ich wystąpienia.

Ważne jest, aby oni mogli przedstawić ten szczegółowy opis bez obawy przed karą lub odwetem.

Inżynier, który uważa, że zostanie upomniany, nie ma motywacji, aby dać realistyczny, dokładny opis problemu. Nie rozumiem, w jaki sposób doszło do wypadku, ale gwarantuje, że nastąpi to ponownie; jeśli nie z oryginalnym inżynierem, to z kimś innym.

"Musimy starać się zrozumieć, że wypadki nie zdarzają się, ponieważ ludzie grają i tracą. Wypadki zdarzają się, ponieważ osoba uważa, że:

... co się stanie, nie jest możliwe, ... co się stanie, nie ma połączenia z tym, co robią, ... lub że możliwość uzyskania zamierzonego wyniku jest warta niezależnie od ryzyka.

Erik Hollnagel

Zezwalaj inżynierom na posiadanie własnych historii

Zabawna rzecz dzieje się, gdy inżynierowie popełniają błędy i czują się bezpiecznie, podając szczegóły dotyczące tego. Nie tylko są skłonni do pociągnięcia do odpowiedzialności, są również entuzjastyczni w pomaganiu reszty firmy uniknąć tego samego błędu w przyszłości. Są to przecież te z największą wiedzą, jeśli chodzi o błąd. Powinny one być mocno zaangażowane w wymyślenie korygowania.

Jak mogę włączyć "tylko kulturę"?

  • Zachęcaj do uczenia się, mając bez winy pośmiertne przestoje i wypadki.
  • Przypomnij sobie, że celem jest zrozumienie, jak mógł się zdarzyć wypadek, aby lepiej przygotować się z niego w przyszłości.
  • Zbierz szczegóły z wielu perspektyw na błędy i nie karaj ludzi za popełnianie błędów.
  • Zamiast karać inżynierów, przyznaj im wymagany urząd w celu poprawy bezpieczeństwa, pozwalając im na przekazanie szczegółowych sprawozdań finansowych dotyczących niepowodzeń.
  • Umożliwiaj i zachęcaj ludzi, którzy popełniają błędy, aby być ekspertami w zakresie edukacji reszty organizacji na temat tego, jak nie robić ich w przyszłości.
  • Zaakceptuj, że zawsze istnieje uznaniowa przestrzeń, w której ludzie mogą zdecydować się działać lub nie działać, a ocena tych decyzji leży z perspektywy czasu.
  • Zaakceptuj, że błąd poznawczy wynikający z wiedzy po fakcie może zaciemniać naszą ocenę przeszłych zdarzeń, więc przepracuj ciężko, aby go wyeliminować.
  • Zaakceptuj, że błąd podstawowego przypisania jest również trudny do uniknięcia, więc skoncentruj się na środowisku i okolicznościach, w których ludzie pracują podczas badania wypadków.
  • Staraj się upewnić, że koniec (na przykład zarządy lub kierownictwo wyższego szczebla) organizacji rozumie, jak praca jest rzeczywiście wykonywana. Porównaj to z tym, jak wyobrażają sobie, że jest to wykonywane, za pośrednictwem wykresów Gantta i procedur na ostrym końcu (na przykład inżynierów i technologii).
  • Ostry koniec musi poinformować organizację, w której granica znajduje się między odpowiednim i nieodpowiednim zachowaniem. To nie jest coś, co koniec może wymyślić na własną rękę.

Wystąpił błąd. Aby zrozumieć, jak występują błędy, najpierw musimy zrozumieć nasze reakcje na awarię.