Человеческий фактор
Полевое руководство по пониманию человеческой ошибки
Содержание
Мое предисловие
Это перевод Полевого руководства по пониманию человеческой ошибки Сидни Деккера. На мой взгляд — всем, кто работает с людьми необходимо прочитать эту книгу.

Кроме этого решил добавить свои комментарии по тексту.

Перевод не литературный, а просто чтобы понять текст. Так что если будут комментарии по тексту — присылайте.

PS. В тексте будут ошибки. Все они мои, некоторые сделаны специально.

0
Предисловие
Добро пожаловать в новое издание Полевого руководства по пониманию «человеческой ошибки». Как и два предыдущих издания, руководство помогает различать «старый взгляд» и «новый взгляд» на «человеческую ошибку»:

  • В старом взгляде «человеческие ошибки» являются причиной большинства проблем. Люди, с этой точки зрения, — это проблема, которую нужно контролировать. Поведение людей — то, что нужно контролировать, то, что нужно изменить. Некоторые считают, что нужно начинать с отношения людей, потому что оно влияет на их поведение. Поэтому начинают формировать правильное отношение с помощью плакатов, кампаний и санкций, надеясь, что это повлияет на поведение и уменьшит количество ошибок. Можно даже применить санкции к некоторым людям в «культуре справедливости» (хотя, как правило, нет доказательств того, что что-либо из этого работает).

  • В новом взгляде поведение, которое мы называем «человеческой ошибкой», не является причиной проблем. Это следствие, эффект, симптом проблем, которые находятся глубже внутри вашей организации. Новый взгляд предполагает, что люди не приходят на работу, чтобы плохо выполнять свои обязанности. Поэтому, когда возникают негативные последствия, необходимо смотреть не только на самих людей, но и на условия, в которых они работают. Вы и ваша организация вполне можете способствовать созданию этих условий. Если оставить эти условия неизменными, тот же негативный результат может повториться — независимо от того, сколько санкций вы введете, сколько плакатов развешаете или сколько кампаний по повышению осведомленности о безопасности запустите.

Разделение подходов на «старый» и «новый» — это слишком бинарный или упрощенный способ осмысления такой сложной проблемы, как «человеческая ошибка». Но это может расширить ваше понимание этой проблемы. Это показывает, что находится на обоих пределах этого пространства. И это дает вам язык или концепции для описания того, что происходит на этих пределах и между ними. Не позволяйте себе слишком легко поддаваться влиянию какой-либо точки зрения или перспективы. Вероятно, у вас есть много опыта и историй, которые подсказывают, что ваша точка зрения могла быть верной с самого начала.

Но дайте себе обещание:
  • дисциплинировать себя, чтобы критически осмысливать проблему «человеческой ошибки». Убедитесь, что вы задаете все необходимые вопросы, а затем задавайте еще.
  • не радуйтесь преждевременному разрешению проблемы «человеческой ошибки». Не принимайте простые ответы за верные.
  • обязательно спрашивайте «неужели?» всякий раз, когда вы или другие люди, кажется, пришли к заключению о «человеческой ошибке». Делайте это постоянно. Никогда не переставайте задавать вопросы.
  • используйте различия между старой и новой точками зрения, чтобы по-новому взглянуть на проблемы в вашей среде и обстановке. Используйте это, чтобы определить, на каком этапе могут находиться другие люди в своих размышлениях о «человеческой ошибке».
  • Используйте это сравнение, чтобы активно способствовать более продуктивному диалогу о «человеческой ошибке» — не тому, где вы обязательно хотите быть правыми всегда, а тому, который заставляет других людей остановиться, задать вопросы и подумать.

Таблица 1 Сравнение старого и нового взглядов на «человеческую ошибку»

Старый взгляд

Новый взгляд

«Человеческая ошибка» — это причина проблем

То, что мы называем «человеческой ошибкой», — это симптом более глубоких проблем.

«Человеческая ошибка» — это отдельная категория поведения, которой следует бояться и с которой следует бороться

«Человеческая ошибка» — это атрибуция, суждение, которое мы выносим постфактум.

«Человеческая ошибка» — это задача; поведение людей — это проблема, которую нам нужно контролировать

Поведение систематически связано с особенностями инструментов, задач и рабочей среды людей.

«Человеческая ошибка» — это то, чему нужно объявить войну. Люди должны стремиться к совершенству

«Человеческая ошибка» — это информация о том, как люди научились справляться (успешно или нет) со сложностями и противоречиями реальной работы.

«Человеческая ошибка» — это простая проблема. Как только все системы будут внедрены, останется только добиться от людей внимания и соблюдения правил.

Проблема «человеческой ошибки» как минимум так же сложна, как и организация, которая способствует её возникновению.

Благодаря более строгим процедурам, соблюдению требований, технологиям и контролю мы можем уменьшить проблему «человеческих ошибок».

Благодаря лучшему пониманию сложных деталей повседневной работы людей мы можем найти способы улучшить её для них.

Мы можем и должны добиться нулевых ошибок, нулевых травм, нулевых несчастных случаев.

Мы можем и должны повысить устойчивость наших людей и организации.


Пообещайте себе и своей организации улучшить ситуацию с проблемой «человеческих ошибок». Способ восприятия (точка зрения) иногда ошибочно принимают за образ жизни (реальность). Это приводит к тому, что люди говорят: «Мы не можем измениться. Мы такие, какие есть. Таков мир». Но, конечно, вы можете измениться. И они могут измениться. Это начинается с того, что мы начинаем смотреть на вещи по-другому. Это начинается с того, что вы говорите о вещах по-другому, используете другой язык, принимаете другую точку зрения.


Морское и портовое управление Сингапура (MPA) завершило расследование трех отдельных столкновений коммерческих судов в Сингапуре и его окрестностях, произошедших в течение двух недель в начале этого года, установив, что причиной стали человеческая ошибка и некачественное суждение.

После трех столкновений, каждое из которых привело к разливам нефти, Морское и портовое управление Сингапура (MPA) провело расследование, чтобы определить причины инцидентов и выяснить, не были ли какие-либо системные проблемы, которые привели к серии инцидентов. Во всех трех столкновениях произошла утечка нефти, но никто из членов экипажа не пострадал.

MPA установило, что во всех трех случаях наблюдалась недостаточная осведомленность экипажей на мостике, включая капитанов, о ситуации на море, несмотря на то, что Центр управления портовыми операциями MPA (POCC) предоставлял вахтенным на мостике рекомендации и предупреждения о ситуации на море. Управление морского порта Сингапура (MPA) заявило, что команды на мостике также не использовали автоматическую идентификационную систему (AIS), автоматическую радиолокационную систему построения маршрутов (ARPA), радар и электронную систему отображения и информации на картах (ECDIS) для предотвращения столкновений.

В отношении членов вахтенных команд, включая лоцманов, будут приняты соответствующие дисциплинарные меры за нарушение соответствующих правил, заявило MPA. Существующие системы и процедуры, внедренные MPA, помогли поддерживать низкий уровень инцидентов.

Представляя свои выводы, MPA организовало диалог с более чем 150 представителями судоходного сообщества, чтобы проинформировать их о ходе расследования и мерах по повышению безопасности судоходства в регионе.

«MPA уделяет большое внимание безопасности судоходства и серьезно относится к любым инцидентам в водах Сингапура», — заявил глава MPA. «В дальнейшем мы будем более тесно сотрудничать со всеми нашими отраслевыми партнерами, чтобы пересмотреть наши процедуры управления безопасностью и внедрить дополнительные меры для повышения безопасности судоходства. Мы также без колебаний будем принимать соответствующие меры против тех, кто нарушает наши правила безопасности».
Что нового в третьем издании?
Вы можете помочь изменить подход вашей организации к проблеме «человеческих ошибок». Это начинается с задавания вопросов, рассмотрения вещей с другой точки зрения и использования другой терминологии.

Это издание не только расширено, но и реорганизовано и упрощено по сравнению с предыдущим. Вместо большего количества частей, это издание сфокусировано на более общих проблемах, проблемы, которые разделяют читатели «Полевого руководства». Например, как можно различить разные точки зрения на «человеческие ошибки»? Что вам нужно для нового подхода к расследованию «человеческих ошибок»? Как выглядит эффективный отдел безопасности, и как вы можете помочь создать культуру безопасности в вашей организации?

В этом новом издании вы найдете расширенные обсуждения сложных вопросов, которые задавали мне читатели из предыдущих изданий. Вот лишь некоторые из них:
  • «Новый взгляд» хорош. Но как быть с идиотами в моей организации?
  • Могу ли я действительно нанять каких-нибудь консультантов, чтобы внедрить программу «культуры справедливости»?
  • Как привлечь людей к ответственности, не внушая им страха?
  • Что я могу сделать, чтобы поддерживать вовлеченность людей в вопросы безопасности, когда долгое время ничего рискованного не происходило?
  • Что мы можем сделать для повышения безопасности, помимо управления риском негативных событий?
  • Что означает устойчивость?

Эти и многие другие вопросы рассматриваются в этом третьем издании. Вы также найдете рекомендации о том, что делать или куда двигаться дальше в изучении «Нового взгляда».
Кавычки у «человеческой ошибки»
Обратите внимание, что «человеческая ошибка» заключена в кавычки. Кавычки должны были быть там с самого начала. «Человеческая ошибка», в конце концов, — это не более чем термин. Это суждение. Это ярлык, которое мы проставляем постфактум, о поведении других людей или о своем собственном.
Одно из первых исследований «человеческой ошибки» в 1947 году, уже тогда заключало этот ярлык в кавычки. Пол Фиттс и Ричард Джонс, опираясь на новаторские работы таких людей, как Альфонс Шапанис1, хотели лучше понять, как конструкция и расположение органов управления в кабине пилота влияют на типы ошибок, которые совершают пилоты. Используя записанные интервью и письменные отчеты, они собрали корпус рассказов об ошибках в использовании органов управления самолета2

Пилотам из Командования материально-технического обеспечения ВВС, Командования подготовки ВВС и Института технологий ВВС армии, а также бывшим пилотам был задан следующий вопрос: «Подробно опишите ошибки в работе органов управления в кабине пилота, органов управления полетом, органов управления двигателем, тумблерного переключателя, селекторного переключателя, триммера и т. д., допущенную вами или другим человеком, за которым вы наблюдали в тот момент» (стр. 332). Практически все пилоты ВВС армии, независимо от опыта и навыков, сообщили, что иногда допускали ошибки в использовании органов управления в кабине пилота. Вот один из таких отчетов пилотов:

«Мы совершили обычный взлет на тяжело загруженном F-13. После отрыва от земли я дал сигнал второму пилоту убрать шасси. Самолёт начал опускаться обратно к земле, когда вместо шасси были убраны закрылки. Управление рулём высоты было достаточным, чтобы предотвратить повторное касание земли, и скорость полёта поддерживалась. Второй пилот, пытаясь убрать шасси, не смог активировать два предохранительных фиксатора на выключателе шасси, и мне пришлось использовать этот выключатель, чтобы поднять шасси. Всё было бы в порядке, если бы в этот момент не заглох первый двигатель. Полный руль направления и элероны не позволяли поддерживать курсовую устойчивость, а скорость и высота не позволяли уменьшить мощность на противоположной стороне. По мере уборки шасси скорость достаточно увеличилась, чтобы я смог поддерживать курсовую устойчивость и, наконец, набрать несколько футов высоты. Сочетание этих трудностей едва не привело к катастрофе. Я считаю, что ошибка с поднятием закрылков вместо шасси была вызвана неопытностью второго пилота и расположением двух выключателей. Члены моей эскадрильи неоднократно сообщали о подобных ошибках, когда находились заграницей, хотя ни одна авария, как известно, не была вызвана ими. Однако это может привести к очень опасным ситуациям, особенно в сочетании с другими сбоями.

«Человеческая ошибка» — это не более чем ярлык. Это суждение. Это приписывание, которое мы делаем постфактум, о поведении других людей или о своем собственном.

Фиттс и Джонс назвали свою статью «Анализ факторов, способствующих 460 случаям «ошибок пилота» при управлении самолетом». «Ошибка пилота» была взята в кавычки — это указывало на сомнение исследователей в достоверности этого термина. С тех пор это открытие было многократно подтверждено. Приписывание «человеческой ошибки» зависит от точки зрения. То, что для одних является «человеческой ошибкой», для других — нормальным поведением или даже вложением в устойчивость (resilience - способность возвращаться в исходное состояние).

Рассмотрим исследование, проведенное Холлнагелем и Амальберти в 2001 году3. Цель заключалась в тестировании нового инструмента подсчета ошибок в управлении воздушным движением. Метод предполагал, что наблюдатели должны подсчитывать и классифицировать ошибки с помощью таксономии, предложенной разработчиками.

Метод был протестирован в полевых условиях парами, состоящими из психологов и авиадиспетчеров, изучавших работу авиадиспетчеров в режиме реального времени. Практикующие специалисты и психологи были обучены использовать инструмент одинаково. Но, несмотря на эту общую подготовку, наблюдались большие различия в количестве и типах ошибок, которые наблюдала каждая из двух групп. Обе группы сошлись лишь в небольшоим количестве ошибок. Авиадиспетчеры, как правило, полагались на внешние условия работы (например, интерфейсы, персонал и доступное время) для обозначения и классификации ошибок. Психологи, напротив, предпочитали локализовать ошибку где-то в предполагаемых областях сознания (например, в рабочей памяти) или в каком-либо психическом состоянии (например, в провалах внимания).

Что наиболее важно, авиадиспетчеры, которые фактически выполняли работу, могли сказать кодировщикам ошибок, что все они ошиблись. Наблюдаемые «человеческие ошибки» не были ошибками для тех, кто их «совершал». Вместо этого, поведение, которое другие — не выполнявшие работу в тот момент — воспринимали как ошибки, оказалось целенаправленной стратегией, предназначенные для управления тонкими операционными проблемами или предвиденными ситуациями, которые счетчики ошибок не заметили бы и не поняли бы, даже если бы заметили. То, что поначалу казалось простым явлением, «человеческой ошибкой», на самом деле было проявлением человеческого опыта. Это были показатели устойчивости: когда операторы в процессе работы распознавали, усваивали и адаптировались к вызовам, которые, как они знали, будут оказывать на них давление в других областях, сдвигать границы или создавать проблемы в будущем. Ничто из этого — действительно критически важного для обеспечения безопасности — никогда не было бы видно в инструменте, предназначенном для подсчета «человеческих ошибок».
Что вам следует делать с проблемой «человеческих ошибок»?
Вернемся к исследованию Фиттса и Джонса 1947 года. Вот как начиналась их статья: «должно быть возможно исключить значительную долю так называемых аварий, связанных с «ошибками пилота», путем проектирования оборудования в соответствии с человеческими потребностями»4. «Ошибка пилота» снова была взята в кавычки, и после ее надлежащего исследования решения стали довольно очевидными. Суть заключалась не в «Ошибке пилота». Это лишь симптом проблемы, а не ее причина. Это отправная точка. Решение заключалось не в том, чтобы говорить пилотам не совершать ошибок. Скорее, утверждали Фиттс и Джонс, мы должны изменить инструменты, исправить условия, в которых работают люди, и таким образом мы сможем устранить ошибки людей, которые имеют дело с этими инструментами. В конце концов, навыки и опыт мало влияют на количество «ошибок»: улучшение обучения или дисциплины людей не окажет существенного влияния. Скорее, изменив среду, вы измените поведение, которое в ней происходит. Обратите также внимание, что Фиттс и Джонс не называли эти эпизоды «неудачами». Вместо этого они использовали нейтральный термин «опыт». Мы все могли бы многому научиться у них, у их понимания.

У меня был студент, который участвовал в расследовании аварии на взлетно-посадочной полосе в качестве представителя профсоюза пилотов. В результате аварии погибли 49 человек. В момент аварии в аэропорту велись строительные работы. «Везде не горит свет», — заметил один пилот другому, когда они приземлились накануне вечером. Кроме того, наземные навигационные карты, которыми располагали пилоты, не соответствовали временной схеме рулежных дорожек. Указатели рулежных дорожек на постоянно меняющемся рельефе аэропорта стали вводить в заблуждение, а изображения рулежных дорожек на картах, доступных в кабине пилотов, были неверными. В темноте раннего утра два пилота начали разбег с взлетно-посадочной полосы, которая находилась близко к их намеченной. Но полоса, на которой они оказались, оказалась слишком короткой.

Более поздний аудиторский отчет за год, в котором произошла авария, показал, что более полумиллиона долларов исчезло из-за сомнительных или необоснованных расходов руководства аэропорта. В эту сумму входили спортивное оборудование, пропавшие впоследствии произведения искусства, внушительный счет в стриптиз-клубе, DVD-диски, видеоигры и возмещение расходов, за которые менеджеры уже получили оплату. Когда вы перестраивате аэропорт, полмиллиона долларов может показаться небольшой суммой. Но на эти деньги можно было бы купить несколько новых лампочек для рулежных дорожек и указатели, чтобы направлять бригады к нужной взлетно-посадочной полосе.

Однако ничто из этого так и не попало в расследование. Вместо этого следователи установили, что «вероятной причиной этой аварии стало то, что члены экипажа не использовали имеющиеся ориентиры и средства для определения местоположения самолета на поверхности аэропорта во время руления, а также не проверили и не убедились, что самолет находится на правильной взлетно-посадочной полосе перед взлетом. К аварии также способствовали не относящиеся к делу разговоры членов экипажа во время руления, которые привели к потере ориентации в пространстве».

Иногда нам кажется, что мы забываем или отказываемся от всего, чему нас учили Фиттс и Джонс более полувека назад:
  • Заключите «человеческую ошибку» в кавычки, потому что это всего лишь атрибуция постфактум.
  • Поймите, что эта атрибуция является отправной точкой, а не заключением расследования.
  • Не используйте слово «неудача», а используйте «опыт» для описания эпизода, когда что-то пошло не так.
Вместо этого, современные расследования, СМИ и другие часто придумывают новые ярлыки для «человеческой ошибки» (например: «потеря ориентации в пространстве»), и останавливаются, когда удовлетворяют свое желание обвинить оператора на передовой линии в его «неудачах» в выполнении того или иного действия (что, задним числом, так очевидно).
Фокус на «человеческой ошибке» приводит к множеству неправильных действий
Когда дело касается безопасности, фокус «человеческой ошибке» приводит вас и вашу организацию к множеству неправильных действий. Однако вы можете использовать восприятие «человеческой ошибки» в своих интересах. Если люди обеспокоены проблемой «человеческой ошибки», вы можете воспользоваться направить свою организацию и других к конструктивным способам мышления о безопасности и риске. Вот некоторые причины, по которым следует отвлечь людей от ярлыка «человеческая ошибка»:

  • Фокус на «человеческой ошибке» очень быстро превращается в фокус на людях как на причине проблем с безопасностью и что люди являются объектом вмешательства. Но давно уже доказано, что это незначительно усиливает безопасность, так как увольнение одного человека не устраняет условия, которые привели к возникновению проблем.
  • Фокус на «человеческой ошибке» подпитывает сам себя. Мы придумываем новые названия для этих «человеческих ошибок». Как мне сказала одна менеджер, большинство травм на ее заводе вызваны небрежностью рабочих, невнимательностью, несоблюдением правил и отвлечением внимания. Многие расследования теперь говорят о том, что люди «потеряли ситуационную осведомленность», а не обвиняют в происшествиях ошибки операторов. Одна из популярных моделей построена вокруг «небезопасных действий» рабочих. Ничего нового в этом нет. Все это — способы сказать «человеческая ошибка». Другой способ, которым «человеческая ошибка» подпитывает саму себя, — это поиск других людей, которых можно обвинить в ошибке. Некоторые инструменты или книги по управлению «человеческими ошибками», например, советуют искать недостаточный надзор, ненадлежащее техническое обслуживание, ошибочных лиц, принимающих решения, или некомпетентных менеджеров. Вполне справедливо — они рассматривают «человеческую ошибку» на операционном уровне как следствие, а не как причину проблем. Но следствие чего именно? Других «человеческих ошибок», допущенных другими несовершенными людьми. Такая логика несколько сковывает. Она никуда не ведет.
  • «Человеческая ошибка» требует определенного стандарта. Для того чтобы атрибуция имела хоть какой-то смысл, она требует возможности действий или оценок, которые не являются или не могут является ошибочными. Этот стандарт часто становится видимым только при знании конечного результата, задним числом. Именно конечный результат позволяет нам сказать, что другие способы работы были бы умнее или лучше. Если бы этот результат был бы другим, то эти действия или оценки, которые сейчас считаются ошибочными, скорее всего, остались бы незаметными (как обычная работа) или даже могли бы быть сочтены конструктивными, героическими, стойкими, новаторскими.
  • Растущая легитимность «человеческой ошибки» как концепции психологических исследований стимулировала разработку инструментов и методов для ее измерения и управления. Однако эти инструменты просто подсчитывают и систематизируют атрибуции — как часто кто-то выносит негативное суждение о работе другого человека.
  • «Человеческая ошибка» не является, как мы когда-то думали, отдельной категорией человеческой деятельности. Тем не менее, именно так психология, СМИ, политики и исследователи долгое время считали ее таковой. Даже в массовом сознании «человеческая ошибка» часто представляет собой захватывающую и отдельную категорию поведения — то, чего следует бояться и с чем следует бороться. Как заметил Стив Шоррок:  «Популяризация термина „человеческая ошибка“, пожалуй, стала самым большим стимулом. Когда что-то идет не так, сложность сводится к этому простому, пагубному термину. „Человеческая ошибка“ стала изменчивой фигурой, способной трансформироваться в объяснение почти любого нежелательного события. Теперь она почти гарантированно встречается в новостных сообщениях о крупных авариях. Интересно, что в некоторых отчетах указывается, что „человеческая ошибка“ не была причиной. Обратный смысл заключается в том, что „человеческая ошибка“ в противном случае была бы причиной (например, „Парижская железнодорожная катастрофа: „человеческая ошибка“ не виновата“, Telegraph, 13 июля 2013 г.). Поскольку этого термина достаточно для объяснения, практически не требуется упоминания результатов исследований в области психологии или человеческого фактора, включая контекст и условия выполнения».
  • Это приводит к бессмысленным заявлениям вроде «85 процентов наших инцидентов или аварий происходят из-за „человеческой ошибки“». „Человеческая ошибка“ рассматривается здесь не только как причина проблем. Подобные утверждения предполагают, что эти «человеческие ошибки» действительно представляют собой поддающуюся подсчету общую категорию поведения, а не атрибуцию, которую мы делаем на основе наблюдений за поведением постфактум. Они предполагают, что нет проблемы в сложении яблок и апельсинов: все «человеческие ошибки» по сути одинаковы: поддаются подсчету, сопоставимы. В сумме они могут составлять до 85 процентов. И люди затем предполагают, что «человеческую ошибку» можно осмысленно отделить от в остальном безупречного контекста (организационного, инженерного), в котором произошли эти разновидности поведения.
  • Безопасность и риск создаются и нарушаются постоянно, во всей вашей организации. Вы не являетесь хранителем в остальном безопасной системы, которую вам нужно защищать от непредсказуемых людей. Сосредоточение внимания на «человеческой ошибке» упрощает чрезвычайно сложную историю о том, как люди повсюду помогают создавать безопасность. Как люди научились справляться, в основном успешно, с давлением, противоречиями и сложностями реальной работы. Интересная история, замаскированная всей этой сосредоточенностью на «человеческой ошибке», заключается в том, как в условиях ограниченных ресурсов и конфликтующих целей, в которых работают люди, их деятельность в основном способствует успеху, а не неудаче.
Почему именно полевое руководство?
Это полевое руководство для практики, потому что оно помогает вам в тех местах (в вашей сфере деятельности), где «человеческая ошибка» рассматривается как важная проблема. Это руководство, которое вы можете взять в руки, поделиться им и использовать для более плодотворного диалога с коллегами о безопасности и рисках. Оно также может помочь вам, если вы студент и планируете работать в такой области или планируете поддерживать и консультировать людей, которые уже работают в ней. Это может быть в операционной деятельности, надзоре, безопасности, управлении, регулировании, расследованиях и многом другом.

Чтобы отвлечь людей от ярлыка «человеческая ошибка», нам сначала нужно понять этот ярлык и его привлекательность. Многое в «человеческой ошибке» связано с пониманием самого себя. Что касается понимания вашей организации: то, как менеджеры, регулирующие органы, сотрудники, коллеги смотрят на «человеческие ошибки» вокруг себя. Полевое руководство дает множество указаний и подсказок о том, как это сделать. Оно помогает вам взглянуть и подвергнуть сомнению практики и язык, которые ваша организация может использовать для решения проблемы «человеческих ошибок». Например:

  • Если в вашей организации расследования и дисциплинарные меры проводятся одним и тем же отделом или одной и той же группой людей, то это довольно сильный признак того, что преобладает старый взгляд.
  • Если ваша организация внедрила программу по изменению поведения для решения проблемы «человеческих ошибок», то это такой же сильный признак.
  • Если менеджер по безопасности посещает конференции, где он или она в основном слышит о мотивации, отношении, личности и индивидуальной осознанности — это признак. 
  • Если ваша организация увольняет людей за нарушения правил техники безопасности, то это более чем признак.
  • Если ваша организация возложила ответственность за безопасность на отдел кадров, и они рассматривают расследования по технике безопасности как индивидуальные оценки эффективности работы, то это даже не подсказка, а призыв к переменам.

Если отдел кадров в вашей организации занимается вопросами безопасности, то расследование инцидента может быстро деградировать из возможности обучения в оценку эффективности работы.

Все подобные практики останавливают размышления; они останавливают поиск более глубоких источников проблем. Конечно, они создают у менеджеров и других иллюзию контроля. Но они не решат проблему «человеческих ошибок». Потому что все, что они делают, это подавляют ее симптомы.

Недавно ко мне обратился менеджер по безопасности многонациональной компании в несколько отчаянном состоянии. Он только что получил корпоративное сообщение, в котором говорилось, что за последние месяцы произошло слишком много случаев, близких к несчастным случаям, травм и серьезных инцидентов. Аудиты безопасности, наблюдения за работой, отчеты о случаях, близких к несчастным случаям, и отчеты об инцидентах показали, что сотрудники не находят времени, чтобы остановиться и подумать о задаче, прежде чем приступить к ней. Сотрудники не уделяют безопасности первостепенного внимания. Наиболее распространенными причинами этих травм и инцидентов, как указывалось, были небрежность, недостаточная осведомленность, игнорирование правил техники безопасности и отвлечение внимания. Другими словами, «человеческие ошибки».

В корпоративном сообщении говорилось, что компания ожидает от менеджеров и руководителей сосредоточенности и бдительности своих сотрудников, а также детального соблюдения ими процедур. Также сообщалось о возобновлении акцента на ответственности (что бы это ни значило...).

Неделей ранее оперативное подразделение той же компании призывало сотрудников сообщать о большем количестве случаев, близких к аварии, сказал менеджер по безопасности. Даже незначительные сообщения были интересны, поскольку они могли указывать на системные проблемы, требующие решения.

Но затем, посетовал он, из корпоративного отдела пришло новое сообщение...

Некоторые считают, что нужно продолжать бороться с «человеческим фактором», пока «человеческая ошибка» не исчезнет.

Работать с «человеческим» аспектом проблемы предполагаемых «человеческих ошибок» по-прежнему довольно популярно. Например: продолжайте наказывать людей, пока ошибка не исчезнет. Но ваша проблема «человеческих ошибок», скорее всего, связана с организацией, а не с человеком. Поэтому Полевое руководство лишь частично посвящено предполагаемым «человеческим ошибкам» в работе других. Понять того, почему оценки и действия людей казались им логичными в тот момент это лишь часть проблемы. Потому что понимание и решение проблемы «человеческих ошибок» во многом сводится к пониманию ваших собственных реакций на неудачи; к распознаванию и влиянию на склонность вашей организации к обвинениям и упрощению. Это Полевое руководство помогает, предоставляя вам и другим другой язык для понимания проблемы «человеческих ошибок». Такой другой язык предлагает новый набор контрмер: менее карательных, менее упрощенных, менее недальновидных и более устойчивых.

Последующие издания книг, как правило, становятся более объемными. Чтобы компенсировать это, данное издание Полевого руководства было несколько сокращено по сравнению с предыдущим, несмотря на полезные дополнения, упомянутые в начале предисловия. Краткость — лучший друг читателя, особенно если она призвана помочь вам в вашей работе. Тем не менее, оно также обновлено и расширено. Например, вы найдете главу о создании культуры безопасности и главу об изменении подхода к проведению расследований. Это руководство также подсказывает, в каком направлении следует развивать ваше мышление и организацию после того, как вы успешно освоите его содержание.
Примечания
  1. Roscoe, S.N. The adolescence of engineering psychology. In: Casey S.M., editor. Volume 1, Human factors history monograph series. Santa Monica, CA: Human Factors and Ergonomics Society, 1997: 1–9.
  2. Fitts, P.M., Jones, R.E. Analysis of factors contributing to 460 “pilot error” experiences in operating aircraft controls. Dayton, OH: Aero Medical Laboratory, Air Material Command, Wright-Patterson Air Force Base, 1947.
  3. Dekker, S.W.A., editor. The emperor’s new clothes: Or whatever happened to ‘human error’? 4th international workshop on human error, safety and systems development; 2001; Linköping, Sweden. Linköping University.
  4. Fitts, op cit.
  5. NTSB. Attempted takeoff from wrong runway Comair flight 5191, Bombardier CL-600-2B19, N431CA, Lexington, Kentucky, August 27, 2006. Springfield, VA: National Transportation Safety Board, 2007.
  6. Shorrock, S.T. The use and abuse of ‘human error’. In: Hummerdal D, editor. Safety differently. Brisbane: Daniel Hummerdal, 2013: 2–13.

1
Часть 1. Два взгляда на человеческую ошибку
Существует два взгляда на "человеческую ошибку". Первый известен как Старый взгляд или теория «паршивой овцы». Он утверждает следующее:

  • Сложные системы работали бы нормально, если бы не непредсказуемое поведение некоторых ненадежных людей (паршивых овец).
  • «Человеческие ошибки» являются причиной несчастных случаев: более двух третей из них.
  • Неудачи становятся неприятными сюрпризами. Они неожиданны и не принадлежат системе. Сбои вызываются в системе свойственной людям ненадежностью.
Согласно старому взгляду, проблемы безопасности являются результатом нескольких паршивых овец в системе, которая в остальном безопасна. Эти «паршивые овцы» не всегда следуют правилам, не всегда ведут себя осмотрительно. Они подрывают организованную и спроектированную систему, созданную другими людьми. Это, по мнению некоторых, создает проблемы безопасности1:

«В настоящее время общепризнано, что в основе большинства несчастных случаев лежат человеческие слабости. Хотя многие из них были предусмотрены в правилах техники безопасности, предписанных процедурах и трактатах по управлению, люди не всегда делают то, что от них требуется. Некоторые сотрудники негативно относятся к технике безопасности, что отрицательно влияет на их поведение. Это подрывает систему множественных защитных механизмов, которые организация выстраивает для предотвращения травм и инцидентов.

Это воплощает все принципы старой точки зрения:
  • В основе большинства несчастных случаев лежат человеческие слабости. «Человеческие ошибки» являются основной причиной неприятностей.
  • Правила техники безопасности, предписанные процедуры и трактаты по управлению призваны контролировать непредсказуемое поведение людей.
  • Однако этот контроль подрывается ненадежными, непредсказуемыми людьми, которые по-прежнему не делают того, что от них ожидают.
  • Некоторые «паршивые овцы» негативно относятся к безопасности, что отрицательно сказывается на их поведении. Поэтому игнорирование безопасности — это личная проблема, проблема мотивации, вопрос индивидуального выбора.
  • В целом безопасная система, состоящая из множества тщательно выстроенных организацией механизмов защиты, подрывается непредсказуемыми или ненадежными людьми.

Обратите внимание на предлагаемые здесь решения. Чтобы избежать проблем с безопасностью, люди должны делать то, что им говорят. Они должны подчиняться тому, что для них придумали менеджеры и планировщики. Действительно, менеджеры и вышестоящие лица умны — они разработали эти трактаты, эти предписанные процедуры, эти правила безопасности. Все, что нужно делать некомпетентным операторам или специалистам, — это следовать им, придерживаться их! Насколько это может быть сложно?

Очевидно, это может быть действительно сложно. Но причина также ясна: именно негативное отношение людей отрицательно влияет на их поведение. Поэтому с помощью дополнительной работы над их отношением (например, с помощью лозунгов и санкций) мы должны решить проблему.

Эта точка зрения, старая точка зрения, ограничена в своей полезности. На самом деле, она может быть крайне контрпродуктивной. Ее пытались применять десятилетиями без заметного эффекта. Повышение безопасности достигается путем отказа от идеи, что ошибки являются причинами, и что люди представляют собой главную угрозу для в остальном безопасных систем. Прогресс в обеспечении безопасности достигнут благодаря внедрению нового подхода.

Самолет Boeing 747 Jumbo Jet разбился при взлете с полосы, которая находилась в стадии строительства и переоборудования в рулежную дорожку. Погода в тот момент была плохой — на страну вот-вот должен был обрушиться тайфун: сильный ветер и низкая видимость. Строящаяся взлетно-посадочная полоса находилась близко и параллельно предполагаемой полосе и имела все обозначения, огни и указатели настоящей полосы. При этом она уже довольно давно использовалась в качестве рулежной дорожки и должна была быть официально переоборудована в полночь следующего дня — по иронии судьбы, всего через несколько часов после аварии.

Пилоты годами жаловались на возможную путаницу, говоря, что отсутствие указания на то, что полоса на самом деле не является взлетно-посадочной полосой, — это «ловушка для темной и бурной ночи». Более того, в конце взлетно-посадочной полосы не было никаких признаков того, что она находится в стадии строительства. Первый барьер стоял в километре от взлетно-посадочной полосы, а за ним — груда строительной техники, вся она была скрыта в тумане и сильном дожде. Однако глава авиационного управления страны заявил, что «взлетно-посадочные полосы, знаки и освещение соответствуют международным требованиям» и что «было ясно, что „человеческая ошибка“ привела к катастрофе». Таким образом, «человеческая ошибка» была лишь причиной. По его мнению, не было никакой более глубокой проблемы, симптомом которой была бы ошибка.
Плохие люди в надежных системах или люди с благими намерениями в несовершенных системах?
На первый взгляд, истории об ошибках кажутся такими простыми: 
  • кто-то проявил недостаточно внимания; 
  • если бы кто-нибудь осознал значимость этого указания или этой информации, то ничего бы не случилось; 
  • кто-то должен был приложить больше усилий; 
  • кто-то посчитал, что срезать путь — это пустяк. 
Поэтому считается, что призывы к большей осторожности и внимательности помогают решить проблему «человеческой ошибки»: 

Министерство транспорта Токио издало приказ всем авиадиспетчерам повысить бдительность после инцидента на рейсе JAL, в результате которого пострадали 42 человека. 

Учитывая то, что становится известно постфактум, большинство ошибок кажутся предотвратимыми. Это может побудить вас или вашу организацию предпринять следующие действия: 
  • избавиться от «паршивых овец»; 
  • ввести больше правил, процедур и требований к соблюдению норм; 
  • призывать людей быть более бдительными (с помощью плакатов, записок, лозунгов);
  • заменить ненадежных людей технологиями. 
Но помогает ли это в долгосрочной перспективе — или даже в краткосрочной? Нет. На самом деле, эти контрмеры не просто нейтральны (или бесполезны, если хотите так выразиться). Они имеют дополнительные негативные последствия: 

  • Избавление от недобросовестных сотрудников, как правило, посылает сигнал другим людям быть более осторожными в своих действиях, словах, сообщениях или раскрытии информации. Это не устраняет «человеческие ошибки», но, как правило, устраняет их следы; следы, которые могли бы быть доступны вам и вашей организации, чтобы вы могли учиться и совершенствоваться. 

  • Введение дополнительных правил, процедур и требований к соблюдению норм неизбежно приводит к проблеме разрыва между тем, как работа представляется (в правилах или процедурах), и тем, как она выполняется на практике. Делать вид, что этого разрыва не существует, — это все равно что прятать голову в песок. Попытки сократить этот разрыв с помощью дополнительных требований к соблюдению норм и угроз санкций лишь вытеснят реальную практику из поля зрения. 

  • Призывы к большей бдительности (с помощью плакатов, служебных записок, лозунгов) никак не решают проблему, уж точно не в среднесрочной или долгосрочной перспективе. Зато они демонстрируют ваше невежество в отношении проблемы. Если всё, что вы можете сделать, это попросить всех остальных стараться больше, что это говорит о вас? Вы, очевидно, уже определили источник проблемы (это те операторы или специалисты, которые недостаточно стараются). Такие предвзятые суждения, как правило, не способствуют укреплению вашего авторитета или репутации среди ваших сотрудников. Сначала вам следует потрудиться, чтобы понять, почему ваши сотрудники поступили именно так, учитывая условия, в которых они работали. И вам нужно задать себе вопрос, какова была ваша роль и роль вашей организации в создании этих условий. 
10 принцип Деминга говорит о том же самом:
Откажитесь от пустых лозунгов и призывов. Откажитесь от использования плакатов, лозунгов и призывов к работникам, которые требуют от них работы без брака, повышения производительности и т. п., но ничего не говорят о методах достижения этих целей. Такие призывы только вызывают враждебное отношение, т.к. основная масса проблем низкого качества и производительности вызвана системой и, таким образом, их решение находятся за пределами возможностей рядовых работников.

В этом плане подход Деминга и Деккера к системе совпадают. Точно также, когда ниже анализируется роль операторов — можно вспомнить слова Деминга о том, что 96 (или 98)% ошибок вызваны именно системой управления, а не деятельностью сотрудника.
  • Идея замены ненадежных людей технологиями привлекательна и широко распространена. Но технологии порождают новые проблемы, а также новые возможности. Вместо того чтобы заменять человеческий труд, они меняют человеческий труд. Новые технологии могут привести к новым видам «человеческих ошибок» и новым путям к сбоям в системе. 
Поэтому кажущаяся простота «человеческой ошибки» вводит в заблуждение. За каждой, казалось бы, очевидной и простой историей ошибки скрывается вторая, более глубокая история. 

Наиболее ярко это иллюстрирует Джеймс Ризон: «Вместо того чтобы быть главными инициаторами аварии, операторы, как правило, наследуют дефекты системы, созданные плохим проектированием, неправильной установкой, некачественным техническим обслуживанием и ошибочными управленческими решениями. Их роль обычно сводится к добавлению последнего украшения к смертельному зелью, ингредиенты которого уже давно находятся в процессе приготовления».2

Вторая история, несомненно, является организационной историей, историей о системе, в которой работают люди, о ее управлении, технологиях, управлении, администрировании и функционировании: 
  • Безопасность никогда не является единственной целью. Организации существуют для поставки товаров или оказания услуг (и часто для получения от этого прибыли). 
  • Люди стараются одновременно согласовывать различные цели (например, качество обслуживания или эффективность против безопасности). 
  • Система сама по себе не является безопасной: люди должны фактически создавать безопасность на практике на всех уровнях организации. 
  • Инструменты или технологии, с которыми работают люди, создают возможности для ошибок и пути к неудачам. 
Ожидания от производства и давление, направленное на повышение эффективности, влияют на выборы сотрудников, делая нормальным или приемлемым то, что ранее, возможно, считалось нерегулярным или небезопасным. На самом деле, это может включать в себя практики или действия, которые, как вы никогда бы не поверили, могли бы совершать ваши сотрудники. Когда вы обнаруживаете такие вещи, будьте осторожны, не бросайтесь на них и напоминайте своим сотрудникам о необходимости соблюдать правила, не идти на компромиссы, всегда быть внимательными и бдительными. Такие напоминания могут звучать пусто, если вы сначала не взглянули на себя и свою организацию — на множество ожиданий (некоторые из которых передаются очень тонко, а не записываются), ограничения ресурсов и конфликты целей, которые вы помогаете внедрять в повседневную рабочую жизнь людей. Помните, что компромиссы и адаптации, которые люди вводят в свою работу, часто служат не их собственным целям, а вашим или целям вашей организации! 

Вторая история, иными словами, — это история о реальной сложности, в которой работают люди, а не история о кажущейся простоте. Системы не являются абсолютно безопасными. Людям приходится обеспечивать безопасность, несмотря на систему, которая предъявляет к ним другие (иногда противоречивые) ожидания и требования. 

Два жестких диска с секретной информацией пропали из ядерной лаборатории в Лос-Аламосе, а затем, при подозрительных обстоятельствах, появились снова за копировальным аппаратом несколько месяцев спустя. Находясь под давлением необходимости обеспечить безопасность объекта, и учитывая, что подобные нарушения крайне редки, министр энергетики объяснил инцидент «человеческой ошибкой, просчетом». Жесткие диски, вероятно, были потеряны из-за халатности или невнимательности к процедурам безопасности, заявили чиновники. Заместитель министра энергетики добавил, что «подавляющее большинство сотрудников хорошо выполняют свою работу на объекте, но, вероятно, там скрывались «несколько недобросовестных сотрудников», которые по халатности скомпрометировали безопасность». 

Но дело никогда не было в нескольких недобросовестных людях. Из-за необходимости выполнять ежедневную работу в крайне усложненных проверок, перепроверок и регистрации использования секретных материалов, подобная «халатность» стала характерной чертой всей лаборатории. Ученые регулярно перемещали секретные материалы без свидетелей и подписей в журналах. Это не было признаком злого умысла, а способом выполнить работу, учитывая все ее ограничения, давление и ожидания. Эта практика развивалась со временем, подстраиваясь под производственное давление, благодаря которому лаборатория и существовала.

Таблица 1.1 : сравнение старого и нового взглядов на «человеческую ошибку».

Старый взгляд

Новый взгляд

задается вопрос, кто несет ответственность за результат;

задается вопрос, что является причиной результата;

рассматривает «человеческую ошибку» как причину проблем;

рассматривает «человеческую ошибку» как симптом более глубоких проблем;

«человеческая ошибка» — это случайное, ненадежное поведение;

«человеческая ошибка» систематически связана с особенностями инструментов, задач и рабочей среды людей;

«человеческая ошибка» — это приемлемый вывод расследования;

«человеческая ошибка» — это лишь отправная точка для дальнейшего расследования.


Люди, работающие в этих системах, узнают о давлении и противоречиях, уязвимостях, и способов ошибиться. Они разрабатывают стратегии, чтобы избежать этих ошибок. Но эти стратегии могут быть не полностью адаптированы. Они могут быть устаревшими. Им может препятствовать сложность и динамика ситуации, в которой они оказались. Или их могут раздражать их правила, или их может подтолкнуть обратная связь от руководства о том, что «действительно» важно (часто это производство и эффективность). Таким образом, безопасность постоянно и создается и нарушается. 

Эти выводы привели к новому взгляду на «человеческую ошибку». В этом взгляде ошибки являются симптомами проблем, скрытых глубже в системе. Ошибки — это обратная сторона стремления людей к успеху в неопределенном мире с ограниченными ресурсами. Старый взгляд, или теория «паршивого яблока», рассматривает системы как в основном безопасные, а людей — как основной источник проблем. Новый взгляд, напротив, понимает, что системы не являются в основном безопасными. Он понимает, что безопасность должна создаваться посредством практики, людьми. 
Люди не приходят на работу, чтобы плохо выполнять свою работу
Психологической основой нового взгляда является «принцип локальной рациональности». Он основан на многочисленных исследованиях в когнитивной науке. 3 Он гласит, что то, что люди делают, имеет для них смысл в данный момент — с учетом их целей, концентрации внимания и знаний — иначе они бы этого не делали. Другими словами: люди не приходят на работу, чтобы плохо выполнять свою работу. Пилоты не регистрируются на рейс, чтобы умереть. Медсестры не приходят на работу, чтобы убить пациента (а если и приходят, то это уже саботаж, преступление, терроризм, требующие иных объяснений и вмешательств — это не тема данной книги). 

Принцип локальной рациональности важен. Если люди совершали действия, которые на первый взгляд кажутся необъяснимыми, это не потому, что они совершали необъяснимые действия. Йенс Расмуссен, один из первопроходцев, стоявших за нынешней «новой точкой зрения», предположил, что это происходит потому, что мы не можем понять, почему для них было логично поступать так, как они поступали. Эта обязанность лежит на нас. Мы должны поставить себя на их место, увидеть мир их глазами. В этом и заключается вся идея хорошего расследования «человеческой ошибки». Мы обязаны это делать, потому что если эти действия были логичны для одних людей, они вполне могут быть логичны и для других. И тогда плохой результат может повториться. 

Цель нового подхода к расследованию «человеческой ошибки» состоит не в том, чтобы указать, где именно люди ошиблись (это довольно просто , если для людей было логично поступать так, как они поступали, то это может быть логично и для других ). Цель состоит в том, чтобы понять, почему они считали, что поступают правильно; почему это казалось им логичным в тот момент. 

Таблица 1.2. Сравнение старого и нового взглядов на «человеческую ошибку». 

Старый взгляд

Новый взгляд

говорит о том, что люди не смогли сделать

Пытается понять, почему люди поступили так, как поступили

говорит о том, что люди должны были сделать, чтобы предотвратить результат

задает вопрос, почему для людей было логично поступать так, как они поступили.


Расследования ошибок в новом взгляде отличаются следующим: 
  • они не про отдельных исполнителей; 
  • они показывают проблемы, с которыми могут сталкиваться все специалисты. В конце концов, их «ошибки» — это симптомы системных проблем, которые влияют на всех исполнителей; 
  • это не оценка эффективности работы; 
  • речь идёт не о дисциплине или порицании; 
  • это возможность для обучения. Они рассматривают неудачи как индикаторы повседневного поведения системы, как шанс узнать об организационных, технологических и операционных особенностях, которые создают потенциал для ошибок. 

Новый взгляд не утверждает, что люди совершенны. Конечно, нет. Цели не всегда достигаются, оценки делаются на основе неполной информации, внимание колеблется, принимаются решения, имеющие нежелательные последствия. Все это относится к нормальным, ожидаемым «человеческим факторам», которые играют роль в обеспечении и нарушении безопасности. 

Но новый взгляд уходит от осуждения и обвинения людей за их несовершенство. Он стремится выйти за рамки простого указания на то, что люди должны были заметить или сделать. Он пытается объяснить, почему. Почему они сосредоточились на этом конкретном вопросе, например? Почему это имело для них смысл? Когда вы рассматриваете ситуацию как можно ближе к тому, как ее видели сами люди — разворачивая изнутри наружу, а не снаружи внутрь, — вы можете начать понимать, как они пытались осмыслить свою ситуацию. Что они пытались извлечь максимум пользы из неоднозначных обстоятельств, результат которых им был неизвестен. Если бы они знали результат, как знаете вы сейчас, они, вероятно, поступили бы точно так же, как, по вашему мнению, поступили бы вы. Но цель расследования «человеческой ошибки» состоит в том, чтобы понять, почему оценки и действия людей имели смысл в тот момент, учитывая их контекст и не зная результат, а не в том, чтобы указать, что им следовало сделать вместо этого. Именно это пытается передать образ «туннеля» или «трубы» (см. рис. 1.1). 
Inside - Внутренний взгляд; Outside - Внешний взгляд; Hindsight - Задний ум.
Рисунок 1.1 «Туннель». Понимание «человеческой ошибки» заключается в понимании «внутренней» перспективы, а не внешней или ретроспективной.