Настоящий вызов для топ-менеджеров, желающих применять контроль качества решений, связан не со временем или затратами. Главное – внедрить убеждение, что даже высококвалифицированные, очень компетентные менеджеры с благими намерениями тоже могут потерпеть неудачу. Организациям нужно осознать, что ключ к безопасной стратегии – упорядоченный процесс принятия решений, а не гениальный человек. И необходимо создать культуру открытого обсуждения, в котором такой процесс будет работать на полную мощность.
Впервые опубликовано в выпуске за июнь 2011 года.
Как избежать катастрофы
Кэтрин Тинсли, Робин Диллон, Питер Мэдсен
Неудачи случаются. Но, если обращать внимание на опасные ситуации, в которых «пронесло», можно предвидеть и предотвратить кризис.
Большинство людей воспринимает опасныеситуации, которые чуть было не привели к катастрофе, как очень четкие признаки того, что все могло быть намного хуже: когда пожарный успевает покинуть здание за несколько секунд до обрушения, или когда ураган чудесным образом обходит городок, стоящий на его пути. События вроде этих – критические ситуации, из которых мы, глубоко потрясенные, пытаемся извлечь урок.
Но существует другой тип подобных ситуаций, и они более привычны и губительны. Это небольшие неудачи, промахи, которые мы часто не замечаем. Они пронизывают наши повседневные дела, но не приносят мгновенного вреда. Люди так устроены, что игнорируют или неправильно понимают предупреждения, связанные с такими случаями, поэтому те часто проходят незамеченными или, наоборот, видятся признаками стабильности систем и хорошего хода вещей. Однако эти, на первый взгляд безобидные, события часто служат предвестниками катастрофы, и при небольшом изменении условий или не вполне удачном стечении обстоятельств случается кризис.
Давайте вспомним аварию на буровой вышке BP в Мексиканском заливе. Это почти идеальный пример для изучения анатомии промахов и обстоятельств их неверного толкования. В апреле 2010 года произошел выброс газа в процессе цементирования скважины Deepwater Horizon. Началось возгорание, жертвами которого стали одиннадцать человек, скважину затопило, на сбор разлившейся под водой нефти ушли месяцы. К катастрофе привело множество непродуманных решений и опасных условий: на буровой установке не хватало центраторов для обеспечения правильного положения трубы, буровой раствор, служивший смазкой, выкачали слишком рано, а руководители неверно поняли жизненно важные результаты тестов, которые бы подтвердили утечку углеводородов из скважины. Кроме того, BP полагалась на устаревшую модель сложного аварийно-безопасного противовыбросового устройства, печально известную своей посредственной репутацией.
Почему же корпорация Transocean (владелец установки), сотрудники BP, буровая бригада и руководители установки пренебрегли предостерегающими знаками, даже тем, что на скважине постоянно возникали различные технические проблемы (а буровики называли ее «дырой в ад»)? Мы считаем, что история прошлых промахов в этой индустрии – случаев со счастливым исходом, где удача сыграла ключевую роль в предотвращении катастрофы, – внушила заинтересованным сторонам уверенность, обернувшуюся преступной халатностью. Количество сверхглубоких скважин росло, но масштабные разливы нефти и смертельные случаи были крайне редки. На многих скважинах в Мексиканском заливе происходили небольшие утечки при цементировании (десятки за прошедшие двадцать лет), однако каждый раз случайный фактор – удачное направление ветра, отсутствие сварочных работ поблизости в момент утечки – помогал предотвратить взрыв. И каждый промах воспринимался как свидетельство того, что существующие методы и протоколы безопасности работают.
За последние семь лет мы изучили промахи десятков компаний в различных сферах, от телекоммуникаций до автомобилестроения, а также в NASA и на лабораторных моделях. Исследования позволили выделить повторяющуюся схему: каждой катастрофе и кризису в бизнесе предшествовало множество маленьких промахов (они же ее и предвещали), и большинство из них было проигнорировано или неверно понято. Также исследование показало когнитивные искажения, вводящие руководителей в заблуждение относительно этих промахов. В нашей выборке их было два. Первое – «нормализация отклонений», тенденция со временем принимать аномалии, даже довольно опасные, за норму. Представьте рабочего и лестницу со сломанной ступенькой: чем чаще он будет взбираться на нее, не падая, тем большее спокойствие будет она ему внушать. Для организации такая нормализация может обернуться катастрофой. Социолог Дайан Воган из Колумбийского университета в своей книге The Challenger Launch Decision точно описывает организационное поведение, которое привело к тому, что явная механическая аномалия на космическом шаттле постепенно стала рассматриваться как нормальный полетный риск, что в итоге обрекло команду на смерть. Вторая когнитивная ошибка – так называемое отклонение в сторону результата. Когда люди видят удачные исходы, они начинают больше фокусироваться на результате, а не на (часто невидимых) сложных процессах, которые к нему привели.
Читать дальше
Конец ознакомительного отрывка
Купить книгу