Обратный эффект
Термин «обратный эффект» был предложен Brendan Nyhan and Jason Reifler для описания процесса, когда некоторые люди при столкновении с доказательством ложности своих верований начинают верить еще сильнее:
Например, в своих экспериментах Redlawsk (2002) увидел, что испытуемые оценивали своего предполагаемого кандидата на выборах более позитивно после просмотра некоторой негативной информации о нем (Gollust, Lantz и Ubel 2009).
Другой пример обратного эффекта приводит политолог из Йельского университета Джон Баллок. Он обнаружил, что группа добровольцев-демократов, не поддержавших назначение Джона Робертса главой Верховного суда США, стали еще более негативно относиться к нему, когда узнали, что движение за защиту абортов обвинило его в поддержке маргинальных группировок. Процент неодобрения вырос с 56% до 80%. Мы знаем, что политическая дезинформация работает через поддержку ранее существовавших у людей предубеждений. Мы склонны принимать информацию некритично, если она соответствует тому, во что мы верим. Менее понятно, почему после того, как сторонники разрешения абортов сняли свои обвинения, процент неодобрения Робертса составил только 72%. Видимо, факты не имели существенного влияния на веру. Несмотря на сильное противоположное свидетельство, многие укрепили уже существующие убеждения.
Nyhan и Reifler обнаружили обратный эффект при исследовании консерваторов. Администрация Буша утверждала, что снижение налогов приведет к увеличению доходов федерального бюджета (это не дало обещанного эффекта). Одной группе было предложено опровержение этого утверждения видными экономистами, в число которых входили нынешние и бывшие чиновники администрации Буша. Около 35% консерваторов сказали, что верят в прогнозы Буша. Количество верующих подскочило до 67%, когда были предоставлены фактические опровержения идеи о том, что сокращение налогов увеличит доходы бюджета.
Последний пример:
Исследование 2006 года в Stony Brook University показало, что политически ангажированные люди еще менее открыты для новой информации, чем ангажированные в других областях. Эти люди могут быть правы в 90% случаев, но их практически невозможно переубедить в 10% оставшихся.
Некоторые считают, что обратный эффект связан с когнитивным дефицитом: люди считают неблагоприятную информацию согласованной с их убеждениями (Лебо и Кассино, 2007). Nyhan и Reifler, однако, интерпретируют обратный эффект «как возможный результат процесса, посредством которого люди оспаривают инконгруэнтную информацию и укрепляют существующие убеждения». Проще говоря, люди насмехаются над доказательствами, противоречащими их убеждениям, но нет объяснения, почему они так делают. Другое объяснение предполагает групповое подкрепление и версию, что чем меньше у вас информации, тем сильнее ваша вера. Если человек знает, что есть люди, разделяющие его убеждения, и не верит, что есть информация, способная перевесить эту веру, рационализация облегчается. Вполне возможно, что процесс рационализации приводит к укреплению в вере. Кроме того, если информация, поддерживающая убеждения, гораздо чаще озвучивается в средствах массовой информации, чем информация, опровергающая убеждения, тем большую силу вера набирает.
Независимо от причин, обратный эффект — очень любопытное явление. Чем больше эмоций вызывает вера, тем больше вероятность того, что доказательства ложности будут неэффективными. Существует ряд доказательств, что отсутствие уверенности в себе коррелирует с обратным эффектом. Необходимы исследования, чтобы полностью объяснить, какие дополнительные факторы приводят некоторых людей к укреплению в вере в ответ на опровержения. Также необходимо выяснить, какие группы наиболее восприимчивы к обратному эффекту (либералы или консерваторы, теисты или атеисты, скептики или истинно верующие) и почему.