Принцип «черного ящика». Как превратить неудачи в успех и снизить риск непоправимых ошибок - Мэтью Сайед
Шрифт:
Интервал:
Вот что писал об этом организатор опроса: «Некоторых американцев их желание поддержать войну привело к тому, что они не воспринимают информацию, по которой оружие массового уничтожения не обнаружено. Учитывая интенсивное освещение новостей на эту тему в прессе и высокий уровень интереса общественности, подобные масштабы заблуждения [поразительны]».
Вы только подумайте: сообщений об отсутствии оружия массового уничтожения будто бы не было! Люди смотрели новости, видели репортажи о том, что такого оружия в Ираке нет, но сумели об этом забыть. А вот сторонники Демократической партии были отлично осведомлены о том, что оружие массового уничтожения найти не удалось. У многих из тех, кто был против войны, этот факт отложился в памяти сам собой. Но больше половины республиканцев о нем даже не помнили!
Внутреннее напряжение, которое мы ощущаем, когда наши убеждения оспариваются фактами, Фестингер назвал «когнитивным диссонансом». Большинству из нас нравится думать, что мы рациональны и умны. Мы уверены, что выносим здравые суждения. Нам неприятна мысль о том, что мы можем заблуждаться. Вот почему, когда мы допускаем промах, особенно крупный, под угрозой оказывается наша самооценка. Мы испытываем дискомфорт и раздражаемся.
В подобных обстоятельствах у нас есть два варианта действий. Первый – согласиться с тем, что наши первоначальные суждения могли быть ложными. В этом случае мы спрашиваем себя: может, довериться лидеру секты, пророчества которого так и не сбылись, не лучшая идея? Мы размышляем о том, что вторжение в Ирак могло быть неоправданным, если Саддам Хусейн был не настолько опасен.
Этот вариант хорош всем, кроме одного: он угрожает нашей самооценке. Он требует от нас принять как данность то, что мы не столь умны, как нам думается. Он вынуждает нас осознать: мы бываем не правы даже в вопросах, которые для нас первостепенно важны.
Но есть и второй вариант поведения: отрицание. Мы перетолковываем факты: фильтруем, интерпретируем, а то и попросту игнорируем. В этом случае нам удается сохранить приятную уверенность в том, что мы все время были правы. Мы попали в яблочко! Нас не проведешь! Где доказательства того, что мы совершили ошибку?
Члены секты пожертвовали ради Кич слишком многим. Все они ушли с работы, на всех обиделись родственники. Их высмеивали соседи. Признать свою неправоту при таком раскладе труднее, чем согласиться с тем, что ты свернул не туда по дороге в супермаркет. У этих людей имелись все предпосылки верить в то, что Кич – настоящая предсказательница.
Вообразите, как стыдно им было бы покинуть ее дом. Как это мучительно – признать, что ты доверился какой-то ненормальной! Разве не естественно, что они отчаянно пытались выдать неудачу за замаскированный (очень хорошо замаскированный) успех? Точно так же многие республиканцы предпочли забыть, что в Ираке не нашли оружия массового уничтожения, и не сталкиваться с реальностью. Оба механизма помогают сгладить ощущение диссонанса и сохранить утешительную веру в то, что вы – разумный, рациональный человек.
В ходе эксперимента, проведенного авторитетным психологом Эллиотом Аронсоном и его коллегой Джадсоном Миллзом, студентов просили поучаствовать в работе группы, обсуждающей психологию секса [98]. Чтобы присоединиться к группе, студенту полагалось пройти процедуру инициации. Одним студентам предлагалась более шокирующая инициация (они должны были читать вслух описания сексуальных сцен из порнографических романов), другим – не столь шокирующая (им предложили прочесть термины, имеющие отношение к сексу). После инициации студенту давали послушать запись дискуссии между членами группы, к которой он только что присоединился.
Эта дискуссия была сознательно сделана Аронсоном необыкновенно скучной и утомительной – такой, чтобы любой непредвзятый человек вынужден был сделать вывод, что, присоединившись к группе, он совершил ошибку. Члены группы обсуждали вторичные половые признаки птиц: оперение, расцветку и т. д. Слушать их было невозможно. Многие из участников «дискуссии» не знали материала, запинались, умолкали на полуслове. Это была настоящая пытка.
Прослушавших пленку студентов просили дать оценку тому, насколько любопытным им показалось обсуждение. Студенты, инициация которых была не столь шокирующей, говорили, что им было скучно. Это реакция понятна. Они оценили дискуссию непредвзято. Их вывел из себя участник обсуждения, признавшийся, что не осилил статью про брачные ритуалы редкого вида птиц. «Безответственный идиот! – говорили студенты. – Он даже не удосужился прочесть небольшой текст! Он подвел всю группу! Мы не хотим работать в одной группе с таким человеком!» [99]
А как отреагировали студенты, инициация которых была более жесткой? Для них все было по-другому. Вот что писал Аронсон в изумительной книге «Ошибки, которые были допущены (но не мной)» (Mistakes Were Made (but Not by Me)), в соавторстве с Кэрол Теврис: «Они сочли дискуссию интересной и захватывающей, а ее участников – привлекательными и остроумными. Они простили безответственного идиота. Его откровенность подкупала! Кто не хотел бы оказаться в одной группе с таким честным парнем? Было сложно поверить, что и те и другие студенты слушали одну и ту же запись».
Что произошло? Разберем данную ситуацию с точки зрения когнитивного диссонанса. Если для того, чтобы присоединиться к какой-либо группе, я приложил немало усилий, если я добровольно позволил поставить себя в весьма неловкое положение, а группа оказалась неидеальной, выходит, я достаточно глуп. Чтобы сохранить самоуважение, мне нужно убедить себя в том, что группа чертовски хороша. Возникает необходимость высказаться, чтобы изменить мое восприятие в положительную сторону.
Разумеется, все это не работает, если инициация достаточно проста. Если оказывается, что группа плоха и работа в ней – пустая трата времени, можно честно, не боясь навредить самооценке, сказать себе, что «этим и заниматься не стоит». И только когда на кону стоит наше эго, ошибочные суждения начинают нам угрожать. Тогда мы возводим оборонительные укрепления и включаем когнитивные фильтры.
В похожем эксперименте, поставленном психологом Чарльзом Лордом, набирались добровольцы, которые были страстными сторонниками или противниками смертной казни [100]. Участники эксперимента, стоявшие за казнь, были из тех людей, кто ругается с телевизором, когда либерал на экране взывает к милосердию, и убеждает друзей в том, что смертная казнь устрашает потенциальных преступников. Противники казней были из тех, кого ужасает «санкционированное государством убийство», доводящее общество до звероподобного состояния.
Лорд попросил участников обеих групп прочесть два научных исследования. Он позаботился о том, чтобы эти исследования произвели на людей сильное впечатление. Оба текста, казалось, упорядочивали хорошо известные науке выводы. Оба приводили разумные аргументы в огромном количестве. Фокус, однако, был в том, что одно исследование приводило доводы, ставящие легитимность смертной казни под сомнение, а другое, наоборот, рассматривало соображения, по которым высшая мера наказания необходима.
Если рассуждать рационально, стоило ожидать по меньшей мере, что противоречивые аргументы покажут: у смертной казни есть и преимущества и недостатки. Следовательно, взгляды людей, прочитавших эти исследования, должны были хоть немного сблизиться. Но произошло нечто противоположное: взгляды участников эксперимента из разных групп поляризовались сильнее прежнего. Сторонники смертной казни лишний раз убедились, что они правы, то же случилось и с ее противниками.
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!