Научная статья на тему 'Проблема когнитивных искажений при оценке рисков и принятии инновационных решений'

Проблема когнитивных искажений при оценке рисков и принятии инновационных решений Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
1157
195
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЭПИСТЕМОЛОГИЯ / СОЦИАЛЬНАЯ ДИНАМИКА / СИНЕРГЕТИКА / ВЕРОЯТНОСТЬ / ПРОГНОЗИРОВАНИЕ / ОБРАЗ БУДУЩЕГО / РИСКИ / ПРИНЯТИЕ РЕШЕНИЙ / ИННОВАЦИИ / ЭКСПЕРТНЫЕ МЕТОДЫ / ИНТУИЦИЯ / ФОРСАЙТ / КОГНИТИВНЫЕ ИСКАЖЕНИЯ / ИНТЕЛЛЕКТУАЛЬНЫЕ ОШИБКИ / EPISTEMOLOGY / SOCIAL DYNAMICS / SYNERGETIC / PROBABILITY / PROGNOSIS / THE IMAGE OF FUTURE / RISKS / DECISION MAKING / INNOVATIONS / EXPERT METHODS / INTUITION / FORSYTE / COGNITIVE DISTORTIONS / INTELLECTUAL BLUNDERS

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Бажанов Валентин Александрович, Гондаренко Марина Вячеславовна

Статья посвящена проблемам, которые подлежат решению в случае прогностической оценки рисков инноваций с непременным учетом возможных социальных последствий инновационного процесса. Особое внимание уделено стимулирующей роли интеллектуальных заблуждений и ошибок, влияющих на итоговый результат и принятие решений.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE PROBLEM OF COGNITIVE DISTORTIONS IN THE ASSESSMENT OF RISKS AND THE ADOPTION OF INNOVATIVE SOLUTIONS

The paper deals with problems which arise in the process of prognostic assessment of innovation risks and social implications of these innovations. Accent is laid upon the role of intellectual misleading and blunders which distorts the result of prognosis and decision making.

Текст научной работы на тему «Проблема когнитивных искажений при оценке рисков и принятии инновационных решений»

ТЕМА НОМЕРА

Проблема когнитивных искажений при оценке рисков и принятии инновационных решений1

Статья посвящена проблемам, которые подлежат решению в случае прогностической оценки рисков инноваций с непременным учетом возможных социальных последствий инновационного процесса. Особое внимание уделено стимулирующей роли интеллектуальных заблуждений и ошибок, влияющих на итоговый результат и принятие решений.

Ключевые слова: эпистемология, социальная динамика, синергетика, вероятность, прогнозирование, образ будущего, риски, принятие решений, инновации, экспертные методы, интуиция, форсайт, когнитивные искажения, интеллектуальные ошибки.

Неопределенность будущего

Особый способ предвидения будущего — одно из эволюционных преимуществ человека. И этот способ видеть будущее, причудливо усложнившийся в процессе эволюции, сам по себе далеко еще не прекратил своего развития и продолжает развиваться.

Социальные науки в целом могут рассматриваться как один из тех путей, по которому пошла эволюция этого способа «видеть будущее» именно представителями Homo sapiens. Однако стиль жизни и образ мысли человека даже начала XX века не идет ни в какое сравнение с тем, что мы имеем сейчас. Изменения разительны и во многом благодаря тому потоку инноваций, который обрушился на человечество за прошедшие сто лет.

Многие социальные философы, социологи, футурологи уже сегодня предчувствуют качественное изменение всего человечества, которое может состояться на протяжении текущего XXI века. Однако дать достаточно исчерпывающую характеристику того нового, что нас ждет на самом деле, при всем многообразии попыток это сделать, увы, никто из

1 Работа поддерживалась грантом ФЦП Министерства образования и науки РФ «Научные и научно-педагогические кадры инновационной России» на 2009—2013.

© Бажанов В.А., Гондаренко М.В., 2012

М.В. Гондаренко

них по отдельности, по-видимому, не в состоянии. Время пророков и прорицателей, похоже, ушло безвозвратно. Вблизи 2030 года ряд прогностических кривых, экстраполяция которых позволяла до самого последнего времени отчасти предвидеть черты ближайшего будущего, уходят в бесконечность. Рост неопределенности представлений о будущем одна из ведущих черт современного состояния общественных наук. Чем же определяется этот рост?

Во-первых, неопределенность возрастает в связи с взрывным характером развития технического прогресса, в особенности информационно-телекоммуникационных, нано-, био- и когнитивных технологий, непредсказуемое взаимодействие которых задает особую сложность прогнозирования социальной динамики [2] и подводит к мысли о необходимости для принятия эффективных решений создания центров, которые взяли бы на себя координацию «нелинейных по своему характеру, поливариантных и статистически детерминированных процессов инновационного развития» [6, а 52].

Во-вторых, специфические вклады в динамику социальных процессов ныне вносятся процессами глобализации, которая в условиях как легального, так и нелегального неконтролируемого обмена новыми технологиями в сочетании с нарастающими масштабами инновационного процесса в целом также резко усиливает общую нестабильность социума, причем, как в региональном, так и в глобальном масштабе его анализа.

Обмен инновациями между различными центрами политического и экономического влияния, сам по себе трудно предсказуемый, вносит дополнительную долю неопределенности при построении образа ожидающей нас всех социальной динамики.

Можно с полной определенностью предполагать, что последняя отнюдь не будет унифицироваться, но напротив, будет становиться все более причудливой и непредсказуемой. В подобных условиях возрастают вероятности появления множества новых точек бифуркации, в которых растет неустойчивость социальных процессов, порождая, в конечном счете, их неожиданное разветвление и движение по альтернативным путям. Прежние представления о прогрессивной эволюции социальных систем путем накопления малых контролируемых обществом изменений в рамках синергетической парадигмы уступают свое место представлениям о скачкообразных подвижках, могущих привести не только к качественно новым социально желательным состояниям, но и к состояниям аномального неблагоприятного характера.

Третий (и весьма важный) фактор роста неопределенности будущего связан с отсутствием единой методологии и инфраструктуры независимой экспертизы рисков, связанных с принятием и распространением нового.

Наблюдаемый сегодня рост неопределенности будущего связан и с тем обстоятельством, что в разных фазах социального развития различных социальных структур состав и приоритеты релевантных факторов, которые

должны быть учтены при построении прогнозов и принятии решений и, соответственно, «дорожных карт» неизбежно меняются.

Унификация и стандартизация на уровне описания наборов релевантностей, по-видимому, с неизбежностью рано или поздно ведет к ошибкам и искажениям. Поэтому даже хорошо проработанные и детально формализованные прогнозные системы при определенных условиях утрачивают свою способность к предсказаниям, а шаги на пути к «желаемому будущему» согласно разработанной «дорожной карте» могут оказаться систематическим продвижением в тупиковом направлении.

Внесение же поправок с учетом совершенно новых начальных условий зачастую означает полную замену принципов и подходов прогнозирования, что как раз и наблюдается в последнее время в футурологии и прогностике.

В результате образ ожидающего нас будущего сегодня может быть представлен как надо всем доминирующий хаос, в условиях которого элементы порядка, если они пока еще и обнаруживаются, увы, уже не позволяют делать надежных прогнозов с опорой на знания, принципы и подходы, которые срабатывали ранее, но не срабатывают теперь.

В этой некомфортной ситуации постоянной изменчивости и неопределенности, по понятным причинам, у многих проявляется обеспокоенность. Последняя вполне оправдана, поскольку осознание тенденции к нарастанию новых ранее неизвестных нам рисков подтверждается уже состоявшимися событиями последних 50—60 лет.

Если же далее сосредоточить внимание на инновациях, то можно констатировать, что инновации сегодня действительно пронизывают всю нашу жизнь. Однако вполне очевидно, что среди множества нововведений, которые в последние десятилетия распространяются в различных сообществах и как будто бы должны нести безусловное благо, могут оказаться (и на самом деле обнаруживаются) инновации критического характера, те, которые отнюдь не всегда содействуют устойчивости и стабильности различных сообществ, но, напротив, влекут за собой их неустойчивость и даже более того увеличивают риски, причем зачастую риски не только региональной нестабильности, но и риски глобальных катастроф.

В этой связи вряд ли будет обоснованным и разумным практиковать слабодифференцированный подход к инновационному процессу и инновационному целеполаганию как к безусловно позитивному процессу, несущему всем людям безусловное благо (сущность этого подхода и особенности общепринятой интерпретации инновационного целеполагания обстоятельно изложены Г.В. Сориной [11, а 138—139]). Тем более очевидно, что по отношениям к инновациям, угрожающим потерей стабильности для какого-либо сообщества и, более того, несущим в себе риск угрозы самому выживанию человека как вида, может быть применима концепция «управляемого хаоса».

В то же самое время, с позиций синергетики, хаос необходим для возникновения нового. Возникает парадоксальная ситуация: хаос нужен нам для движения вперед, но хаос мешает нам видеть путь впереди, чтобы двигаться осознанно. В результате резко возрастают риски «падения в пропасть».

О важности экспертных методов

В социальной сфере при всем обилии имеющихся методов оценки инноваций, проектов и отдельных регулирующих воздействий до сих пор отсутствуют четкие критерии и процедуры отделения безопасных нововведений от нововведений несущих потенциальную угрозу.

Разумеется, эта ситуация впрямую связана со сложностью процедур вероятностного прогнозирования будущего. Эта сложность, которая может быть описана как хаотическая, достаточно сильно выражена даже в случае оценки рисков внесения отдельных изолированных друг от друга инноваций. Еще более она возрастает в случае оценки взаимосвязанных неоднородных комплексов инноваций, которые могут лежать в основе целого спектра инструктивных или неинструктивных решений. Действия по исполнению этих решений в нештатных ситуациях, вызванных процессами с повышенным риском, могут оказаться между Сциллой требований инструктивного решения и Харибдой неопределенности оптимального решения, снимающего эту нештатную ситуацию, когда «грань между жестким действием инструкции и индивидуальным вкладом субъекта в процессе решения порой достаточно размыта» [11, С 184].

К тому же проблема оценки инновационных рисков именно в социальной сфере имеет свою специфику постольку, поскольку речь в данном случае идет не только и не столько об экономической эффективности отдельных инноваций, но, прежде всего, о том сложнейшем комплексе социальных последствий, которые могут быть сопряжены с развитием инновационного процесса.

Так, в экономической деятельности отдельных корпораций (крупных и мелких) ключевая функция инноваций заключается в усилении их конкурентных преимуществ. Здесь оценка рисков направлена, прежде всего, на отбор наиболее выгодных проектов и общий рост объема прибыли. Даже при использовании радикальных (наиболее рискованных) инноваций, направленных на обеспечение долгосрочных преимуществ перед конкурентами, может быть избрана такая стратегия управления рисками, которая позволяет корпорации растворить отдельные потери среди множества полученных выгод. Практика показывает, что корпорация может пойти на сознательный выбор заведомо крайне рискованных проектов, заведомо наносящих кому-либо какой-либо ущерб (например, даже самой репутации фирмы), если общий баланс в итоге складывается все-таки в пользу получения экономических преимуществ.

В социальной сфере 1) критерии отслеживания и оценки рискованных инноваций отнюдь не сводятся только к экономическим показателям;

2) риски отдельных инноваций являются «слаборастворимыми» и с трудом компенсируются иными выгодами; 3) малый ущерб от реализации рискованных проектов может с лихвой перевесить полученные преимущества и надолго подорвать имидж властей в глазах общественности.

Хорошо известно, что менеджмент инноваций достаточно широко использует так называемый cost-benefit анализ. Однако наиболее адекватная форма его применения (несмотря на то, что сам по себе этот метод включает в себя оценку влияния какого-либо проекта на общественное благосостояние) сопряжена, прежде всего, с оценкой экономической эффективности инноваций. Данный вид анализа направлен на оценку баланса издержек и выгод, и в целом зачастую вынужденно оставляет вне поля зрения аналитиков неэкономические критерии эффективности.

Основная причина, по которой ограничения метода не дают возможности распространить данный подход к оценке рисков любых инноваций, требование оценки «издержек» и «выгод» в некоей единой валюте, в качестве которой обычно используются деньги. При этом «издержки» социального, этического, экологического, политического или, наконец, эволюционного характера либо вынужденно игнорируются, либо оцениваются очень грубо, приблизительно.

Систематические исследования по оценке рисков имеют недавнюю историю, которая начинается всего лишь в середине 70-х годов прошлого века.

В настоящее время, по некоторым данным, известны десятки различных методов прогнозирования. Для нас существенно, что в тех ситуациях, когда число значимых факторов достаточно велико, а построение математической модели и ее корректная формализация затруднены (именно подобная ситуация типична при оценке как отдельных инноваций, так и исследования взаимодействия их отдельных паттернов), используются, прежде всего, методы, опирающиеся на мнение экспертов, которые, в свою очередь, выносят умозаключения и выводы, опирающиеся на их интуитивное видение.

Сама по себе эволюция методологии и методов предвидения будущего весьма поучительна и заслуживает отдельного специального анализа. Е.В. Балацкий, рассматривая известные ныне четыре основные технологии предвидения будущего (прогнозирование, планирование, футурологию, форсайт), обращает внимание на признаки преемственности в их становлении [3], благодаря которым можно говорить об этапности становления некоей общей технологии. С этих позиций технология форсайта, например, выступает в качестве своеобразного итога становления этой общей технологии [5]. При этом характерной чертой технологии форсайта является возврат к использованию интуитивной экспертизы, которая позволяет подключить к анализу коллективную интуицию большого числа компетентных экспертов.

В этом возврате к интуиции, но интуиции теперь уже коллективной, усматривается, с одной стороны, своего рода повторение стадии «пророков и прорицателей», но на новом более высоком качественном уровне, а

с другой, — обещание пока еще не ясной в своих основных чертах дальнейшей эволюции способности человека (как социального существа) строить образ будущего.

Осознание ограниченности формальных прогнозных моделей и возвращение к творческим потенциям человека (эксперта) весьма показательны. Однако новый виток развития технологий вероятностного прогнозирования, который недвусмысленно обозначает распространение и признание технологии форсайтов, как нам представляется, ставит множество новых эпистемологических проблем.

Одна из них впрямую связана с новым нетривиальным знанием о характере (и источниках) тех когнитивных искажений, которые сопровождают творческую деятельность аналитика-эксперта в тех случаях, когда он обращается к построению образа будущего.

Сам по себе факт наличия когнитивных искажений, могущих возникать в ходе познавательной деятельности любого человека, хорошо и давно известен. Но интрига вновь возникшей ситуации заключается как раз в том, что именно в этой специфической области человеческой деятельности (интуитивная творческая деятельность эксперта, строящего образ будущего) благодаря последним исследованиям в области когнитивной психологии обнаружено большое число ранее неизвестных (и зачастую поразительных) эффектов, которые, несомненно, представляют интерес и более общего, эпистемологического свойства.

Когнитивные искажения в интуитивной экспертизе

Уже при использовании формализованных моделей был описан психологический эффект, подобный эффекту Элизы (ассоциирование знаков или слов с понятиями у человека), обнаруженного при компьютерном моделировании психотерапевтического воздействия на клиента, вера в особую достоверность результатов, полученных при таком подходе, когда он возможен.

При исследовании будущего с опорой на мнения экспертов также возникает ряд когнитивных эффектов, требующих особого изучения, в том числе и с позиций эпистемологии.

Организация экспертной деятельности отнюдь не сводится к выбору отдельных ранее уже разработанных методов и конструированию приемлемой их комбинации. Дело обстоит гораздо сложнее. И эта сложность носит принципиально неоднозначный характер. Интуитивные экспертные оценки, дающие возможность проработать (в качественном и количественном отношении) вероятностный образ будущего, представляют собой особый, явно нетривиальный предмет исследования.

В литературе были выделены и описаны несколько пересекающихся друг с другом категорий когнитивных искажений (систематических ошибок), которые обнаруживаются при вынесении интуитивных экспертных заключений и, в конечном итоге, могущих оказать довольно существен-

ное влияние на оценку рисков. Так, помимо ошибок памяти, поведенческих стереотипов, ригидности установок, в данном контексте представляют особый интерес когнитивные искажения, связанные с экспертной оценкой вероятностей событий (альтернатив), устойчивые систематические ошибки, связанные с личностными особенностями экспертов, а также предубеждения, проистекающие из особенностей содержания знаний, которыми обладают эксперты, и характера их верований [8].

Особый класс типичных ошибок в работе экспертов, заслуживающих более подробного рассмотрения, обнаруживается в ходе экспертной оценки вероятностей прогнозируемых исходов. Многочисленные исследования корректности экспертных оценок, проведенные в рамках когнитивной психологии и эвристики, сходятся в одном: эксперты статистически достоверно занижают риски неблагоприятных событий. При оценке комплекса неблагоприятных событий, которые могут затруднить реализацию какого-либо внедренческого проекта, также наблюдается недооценка их значимости. Реальные сроки в ряде случаев существенно превышают те, которые эксперты называют для условий с самыми неблагоприятными обстоятельствами. Таким образом, априорный статус исходов, характеризуемых в качестве «благоприятных» или «неблагоприятных» влечет за собой смещение оценок их вероятности в сторону недооценки вариантов опасного развития событий. Слабая реакция на угрозы характерна не только для компетентных экспертов, но в целом для большинства представителей Homo sapiens.

Парадоксальным образом огромные реальные потери от неправильной оценки вероятностей, как показывает опыт, определяются тем, что вероятностные прогнозы игнорируют возможности ущерба от беспрецедентных и чрезвычайно маловероятных событий. Н.Н. Талеб [16] дал этой категории событий драматическое наименование «Черных лебедей», которые являются особенно серьезным аспектом проблемы мощных непредсказуемых последствий: иногда большая часть вариативности процесса происходит из исключительно редких, но принимающих масштабный характер событий (аргументация Н.Н. Талеба в пользу чрезвычайной важности учета феноменов «черных лебедей» подвергается солидной критике с позиций классических представлений теории вероятностей [14], но эта критика почти не затрагивает самого факта существования феноменов такого рода). Поэтому, замечает Н.Н. Талеб, «следует ограничивать ошибки и неверные расчеты людей небольшими зонами, не давая им распространяться по всей системе, как делает мать-природа... Это создает искусственный покой» [12, с. 36—37].

Более того, «кажется, что люди, пишет Е. Юдковски, не экстраполируют опыт пережитых малых опасностей на возможности более серьезных рисков; наоборот, прошлый опыт малых опасностей устанавливает верхнюю границу ожиданий максимально возможного риска. Общество, хорошо защищенное от малых опасностей, не будет предпринимать никаких действий по отношению к большим рискам» [13]. В дополнение к этому,

исследователи моделей рассуждений и погрешностей также констатируют устойчивую тенденцию занижения частот более вероятных событий и завышения событий редких.

Изучение процессов вероятностного прогнозирования показало, что вероятности сложных событий оцениваются экспертами менее качественно, чем вероятности простых. С точки зрения теории вероятностей альтернатива, подлежащая оценке, описываемая с помощью нескольких независимых признаков, делает ее появление менее вероятным. Однако вмешательство сугубо психологических факторов приводит к тому, что добавление каждой новой детали в описание альтернатив делает их все более достоверными.

Людям часто не удается корректно оценить вероятность совпадений всех независимых событий в какой-либо серии. Причем эта тенденция сопровождается недооценкой вероятностей хотя бы одного события из серии, подлежащей анализу. Вероятность же серии событий статистически значимо переоценивается.

По меньшей мере, здесь просматривается влияние гештальта, объединяющего по тем или иным причинам для субъекта оценки события серии в единый образ, в то время как в реальности события продолжают оставаться независимыми друг от друга. В результате, например, введение в действие нескольких отдельных инноваций может восприниматься экспертами как более благоприятный исход, в то же самое время возможные негативные последствия, связанные с отдельными инновациями, уйдут на задний план, а необходимые меры защиты от ущерба заблаговременно приняты не будут.

Особо интересны в этой связи эффекты влияния различного рода «якорей», которые вызывают смещения экспертных оценок тех же вероятностей, хотя и не только их одних. Под «якорем» в когнитивной психологии имеется в виду бессознательная привязка субъекта к некоторой неинформативной условной точке отсчета, положение которой на оценочной шкале, вообще говоря, может быть произвольным.

Так, Е. Юдковски описывает реальные эксперименты, в которых в пределах диапазона возможных оценок случайным образом экспериментатором задаются произвольные «якоря». Выясняется, что дальнейшие действия человека, выносящего оценку по какому-либо параметру, производятся явно с последующей подстройкой экспертных оценок к положению «якоря». Подстройка осуществляется с учетом условного значения якоря до того момента, пока рассматриваемая оценка кажется субъективно невероятной. Якорь случайным образом может оказаться и в начале, и в конце оценочной шкалы. Тем не менее, субъективные оценки как будто бы «подтягиваются» к местоположению якоря.

Таким образом, при вынесении интуитивных экспертных оценок эффект «якорения» приводит либо к недооценке, либо к переоценке оце-

ниваемого параметра, а зона субъективной уверенности в правильности полученных оценок резко сужается. Как было установлено, якоря могут формировать и абсолютно невероятные оценки. Более общая форма этого феномена стала известна как эффект наложения (contamination effect), поскольку оказалось, что почти любая информация может повлиять на интеллектуальное суждение [15].

Обобщая данные исследований, можно придти к выводу, что в ходе вынесения экспертных заключений, в частности, явно нерелевантные данные могут выполнять роль подобных якорей, смещая релевантные рассуждения и накладываясь на рассматриваемые субъектом гипотезы. Начиная обычно именно с нерелевантных данных, эксперты далее производят подстройку в правильном направлении, однако эта подстройка, продолжаясь до получения убедительно звучащего ответа, тем не менее, сохраняет возможность недооценки некого важного параметра. Шансы на недооценку параметра, как обнаруживается, возрастают в ситуациях с более высокой интеллектуальной нагрузкой.

В контексте рассмотрения проблемы оценки рисков важно иметь в виду, что эксперты по большей части не сознают, что их оценки были подцеплены тем или иным якорем. Якорные эффекты в рассуждениях экспертов не ослабляются или ослабляются незначительно, например, при денежном поощрении экспертов, а также при наличии явных инструкций, направленных на минимизацию влияния нерелевантных данных — широко распространены в ситуациях из реальной жизни.

Дело осложняется тем, что достоверно проконтролировать наличие якорного эффекта в экспертных заключениях во всех возможных случаях пока что не представляется возможным, поскольку в функции фактических якорей могут оказаться как элементы любого знания, так и элементы верований, которые хотя и не являются релевантными при анализе реальной проблемы, но дают толчок процессу рассуждений.

Привлекает внимание и феномен сверхуверенности. Довольно распространенным методическим приемом в экспертных опросах является использование контрольных шкал уверенности. Так, при измерениях степеней согласия (несогласия) экспертов с некими содержательными высказываниями последние могут сопровождаться типовым вопросом «насколько Вы согласны с этим утверждением?». Такой подход ранее представлялся вполне оправданным, поскольку степень уверенности в ряде случаев значимо коррелировала с компетентностью эксперта. Считалось, что косвенно показатель уверенности может указывать на более вероятные альтернативы, особенно при наличии статистически значимого согласии множества отдельных экспертов друг с другом.

Однако последующие исследования и здесь показали неправомерность однозначного отношения к уверенности эксперта, которую он приписывает своим заключениям. Во-первых, как выясняется, субъективная сте-

пень уверенности может быть достаточно высокой и при явно ошибочных оценках, сильно расходящихся с подлинными значениями оцениваемого параметра. Во-вторых, было установлено устойчивое смещение оценок уверенности по отношению к событиям благоприятного и неблагоприятного характера.

Люди в целом скорее склонны верить в то, что «все будет хорошо», чем ожидать неприятностей. Тем самым, вероятности неблагоприятных исходов уверенно недооцениваются. Реальность же, как неоднократно оказывалось, зачастую преподносит нам результаты, гораздо худшие, чем самый наихудший случай, который мы можем себе вообразить. Таким образом, субъективные оценки степени достоверности собственных выводов самими людьми, выносящими оценки неким объективным параметрам, в целом не может быть достаточно надежной. Следовательно, экспертиза рисков инноваций должна учитывать, что неблагоприятные последствия введения тех или иных конкретных инноваций на основе интуитивных экспертных оценок скорее будут недооценены, чем переоценены, если не предусматривать соответствующих контрольных процедур. «Оценка эксперта, сильно уверенного в своем мнении, принципиально отличается от вычислений, сделанных исключительно на основе статистических данных или исключительно на основе адекватной, точно подтвержденной модели. Во всех случаях, когда эксперт утверждает, даже на основании точных вычислений, что событие имеет вероятность 10-6, он наверняка ошибается чаще, чем один раз на миллион» — отмечает Е. Юдковски [13].

Весьма значимой при оценке рисков представляется характер позиции того или иного эксперта по отношению к конкретной проблеме или проекту («внутренний» — «внешний» взгляд на проект). Наличие внутреннего взгляда на решаемую проблему, а также доступ ко всей полноте имеющейся информации, связанной с ней, как выяснилось, также отнюдь не всегда способствует адекватности выносимых экспертом оценок. Те из экспертов, которые были погружены в оцениваемый проект, давали устойчиво смещенные (заниженные) оценки сроков его реализации.

Таким образом, с позиций эпистемологии реальное когнитивное поведение людей, в частности, при построении образа будущего, требует особого пристального внимания и изучения. Известный принцип фальсифицируемости К. Поппера в массе вовсе не является общепринятым руководством к действию. Для обычных людей характерно стремление в значительно большей степени найти именно свидетельства в пользу своей «любимой» гипотезы, но никак не ее опровержения. В результате возникают многочисленные интеллектуальные ошибки, связаннные с фактом подтверждения рассуждений (что особенно, видимо, имеет пагубные последствия в медицинских диагнозах, полученных на основании признаков, подтверждающих некую болезнь, но игнорирующих признаки, которые противоречат её наличию).

Исследователи предубеждений различают при этом случаи «прохладной» и «горячей» уверенности. Вмешательство эмоций в интеллектуальный процесс делает «горячую» уверенность более устойчивой и менее подверженной коррективам.

Этот ряд ошибок, в свою очередь, дополняется ошибками, проистекающими из пристальной критичности: «Когда люди подвергают те свидетельства, которые противоречат их точке зрения, более пристрастному анализу, чем те, которые ее подтверждают, это называется мотивированный скептицизм или интеллектуальная ошибка несогласия (disconfirmation bias). Ошибка несогласия особенно деструктивна по двум причинам: во-первых, два подверженных этой ошибке спорщика, рассматривая один и тот же поток свидетельств, могут изменить свою веру в противоположных направлениях — обе стороны выборочно принимают только привлекательные для них свидетельства. Накопление большего числа свидетельств не приведет этих спорщиков к согласию. Во-вторых, люди, которые являются более опытными скептиками: которые знают больший набор логических нестыковок, но применяют этот навык избирательно, могут изменять свою точку зрения гораздо медленнее, чем неопытные спорщики» [13].

В ходе исследований обнаруживается также довольно типичное принятие немотивированных эвристик, которые подключаются в ситуации неопределенности, недостатка времени или особой сложности ситуации вынесения оценок.

Выделяются также когнитивные искажения, связанные с характером схем представления знаний, в частности, схем, ориентированных на корректность. Ключевым свойством последних является их признание всеми членами данного сообщества как общепринятой нормы. Снижение корректности представления знаний проявляет себя в неполноте, неоднозначности, противоречивости. При этом индивидуальная чувствительность к неоднозначности и неполноте схем представления знаний сильно варьирует от индивида к индивиду. Из этого можно заключить, что внесение необходимых корректив в знания есть функция определенных членов данного сообщества, но отнюдь не всех вместе взятых.

Особый интерес представляют сегодня также и когнитивные искажения, связанные с нетранзитивностью экспертных оценок. Под нетранзи-тивностью понимается нарушение отношения строго порядка при сравнении нескольких альтернатив. Так, если a > b и в то же самое время b > с, транзитивные предпочтения будут иметь место в случае истинности a > c. Следует отметить, однако, что транзитивность предпочтений эксперта в качестве универсального принципа в последнее время также поставлена под сомнение и не может служить признаком нерациональности его мышления. Напротив, находятся все больше подтверждений тому, что в ряде случаев и нетранзитивные предпочтения также могут иметь рациональные обоснования и объяснения [9].

Здесь важно подчеркнуть: в ходе прогностической оценки отдельных инноваций и их паттернов неизбежно использование многокритериальных оценок, но именно с задачами многокритериальных экспертных оценок связаны факты нетранзитивности экспертных предпочтений.

Кроме того, весьма существенно, что помимо разного рода когнитивных искажений [13], возникающих в ходе экспертного оценивания, наблюдается также достаточно устойчивый эффект маскировки ошибок [1], причем последний не следует рассматривать как признак недобросовестности или некомпетентности того или иного эксперта.

При большом количестве экспертов обычно использование формальных оценочных шкал с последующим усреднением экспертных оценок. Однако такой сугубо формализованный подход к процессу извлечения знаний эксперта существенно обедняет картину будущего. Разумеется, для аналитиков в ряде случаев допустимо и даже желательно обращаться к конкретному образу будущего посредством получения свободных описаний от экспертов. Но и в этом случае уже коллектив аналитиков может оказаться под влиянием, так называемой, систематической ошибки «хорошей истории».

«Рассказчики историй, — пишет в этой связи Е. Юдковски, — соблюдают строгие правила повествовательности, не имеющие отношения к реальности. Драматическая логика — это не логика. Вдохновленные писатели знают, что одной правды мало: нельзя заставить поверить в невероятное событие из вашего произведения путем цитирования примеров из реальной жизни. Хорошая история раскрашена яркими деталями, расцвечена цветущими метафорами; рассказчик историй должен быть конкретным, твердым и точным, как камень. Но в предвидении будущего каждая добавленная деталь является дополнительной нагрузкой! Правда — это тяжелая работа, и — не для рассказчиков историй. Мы должны избегать не только одурачивания фантастикой в виде нашей неспособности совершить ментальное усилие, чтобы разувериться в ней, но также того, чтобы фантастика наложилась на наше мышление и стала точкой отсчета для наших суждений. И мы должны осознавать, что мы не всегда осознаем это наложение» [13].

Заметную группу интеллектуальных ошибок составляют систематические ошибки, проистекающие из того, что каждый из экспертов в ходе экспертизы выступает в качестве субъекта специфической деятельности, но при этом остается той особой своеобразной личностью, которая неизбежно вносит в процесс деятельности (и, разумеется, в итоговые его результаты) свой особый специфический вклад.

Действительно, установлено, что эффективность вероятностного прогнозирования коррелирует с рядом индивидуальных психологических особенностей экспертов. Так, например, А.В. Залешин и И.Н. Шергин показали, что склонность к риску способствует вынесению более надежных оценок [4]. С другой стороны, склонность к обобщениям и диапазон ког-

нитивной эквивалентности, будучи индивидуально устойчивыми характеристиками личности, определяют уровень ошибок при концептуальном моделировании [7].

Увеличение количества экспертов, конечно же, в целом как будто бы способствует уменьшению влияния личностных факторов за счет взаимной компенсации искажений разного знака при соответствующем планировании репрезентативных выборок экспертов [10]. Однако этот подход предполагает предварительное квалифицированное психологическое тестирование лиц, участвующих в экспертизе, что не всегда возможно.

При этом также неизбежно в общей массе работающих экспертов теряется наиболее эффективный и адекватный эксперт, образ будущего которого объективно имеет наивысшие шансы на воплощение в действительность. Иными словами, «пророки» в технологиях коллективных интуитивных экспертных оценок никогда не приобретают и, похоже, не могут приобрести статуса наиболее эффективного «прорицателя».

Таким образом, рассматривая различные категории когнитивных искажений, можно прийти к выводу, что при построении образа будущего (как это делается, например, при использовании технологии форсайта с привлечением иногда сотен и тысяч экспертов) далеко не все из выделенных исследователями когнитивных искажений могут быть устранены только за счет увеличения количества экспертов.

Иными словами, любая комбинация процедуры вынесения интуитивных экспертных оценок с различного рода статистическими процедурами, направленными на сглаживание влияний разнонаправленных когнитивных искажений, может оказаться заведомо неэффективной.

Многие когнитивные искажения подчас напрямую не связаны с нарушением логики, сопровождаются искренним убеждением экспертов в своей правоте, не могут интерпретироваться как результат сознательного намерения эксперта ввести кого бы то ни было в заблуждение. Непроизвольный эффект маскировки приводит к тому, что когнитивные ошибки могут быть обнаружены только в ходе специально организованных исследовательских процедур контрольного характера.

Эти обстоятельства задают необходимость дальнейшего совершенствования технологий и методов оценки инноваций, в частности, в контексте построения образа возможного и желаемого будущего с учетом социальных последствий их введения в повседневность.

При этом, следует подчеркнуть: отнюдь не исключено, что результаты экспертной деятельности буквально каждого конкретного эксперта, вне зависимости от его квалификации и уровня компетентности, может одновременно содержать множество разнородных неконтролируемых систематических ошибок и когнитивных искажений, которые проистекают сразу из нескольких источников. Неопределенность и хаос в представлениях о будущем в связи с этим, очевидно, только усиливаются.

Уже только это обстоятельство, с одной стороны, обуславливает дополнительную неопределенность при попытках оценить возможные риски инновационного процесса в будущем, а с другой, — выводит в статус приоритетных проблему адекватной организации экспертной деятельности. Последняя проблема требует взвешенного и скоординированного решения с учетом методологических, институциональных, финансовых и, наконец, кадровых ее аспектов.

В методологическом и далее в методическом плане важно сознавать, что процедуры получения интуитивных экспертных оценок, фактически выступающих в качестве единственно надежных источников сведений о будущем, с необходимостью должны включать в себя контрольные под-процедуры с последующим внесением соответствующих корректив.

Выводы

1. В настоящее время именно экспертные методы прогнозирования, приобретая особую ценность в ситуациях роста неопределенности будущего, выводят как современную науку в целом, так и образовательное сообщество, в частности, на ряд нетривиальных методологических, научных и организационных проблем, требующих осмысления и согласованного их решения.

2. Слабо дифференцированная инфраструктура прогностической оценки рисков инноваций выступает в качестве весьма значимого фактора роста неопределенности будущего. Эффективная оценка социальных рисков инновационных сдвигов в настоящее время не обеспечена в достаточной мере методологически, методически, институционально и профессионально. Она еще не встроена сколько-нибудь надежно в систему регулирования инновационного потенциала страны. Важнейшим предварительным условием разработки и построения системы такого регулирования является преодоление существующих междисциплинарных барьеров.

3. Подход к оценке инноваций с непременным учетом широкого комплекса социальных последствий инновационного процесса с необходимостью подводит властных субъектов принятия решений к задаче обеспечения условий (методологических, методических, организационных, институциональных, профессиональных, образовательных и кадровых), не совпадающих с теми, которые необходимы при оценке инноваций в рамках только корпоративного менеджмента инноваций.

Литература

1. Абрамова Н.А., Коврига С.А. О рисках, связанных с ошибками экспертов и аналитиков // Control sciences, 2006. № 6, С. 60—67.

2. Аршинов В.И. Инновации, традиции и архаика как ценностные компоненты культуры в ее синергетически сложностном измерении // Личность. Культура. Общество. 2011. Т. 13. Вып. 2 (63—64). С. 79—88.

3. Балацкий Е.В. Технологии предвидения будущего: от сложного к простому. [Электронный ресурс]. Режим доступа: http://futurologija.ru/bibl/balackij-e-v-texnologii-predvideniya-budushhego-ot-slozhnogo-k-prostomu/

4. Залешин А.В., Шергин И.Н. Электроэнцефалографический анализ поведения человека в условиях выбора вознаграждения, связанного с риском. Четвёртая международная конференция по когнитивной науке: Тезисы докладов: В 2 т. Томск, 22—26 июня 2010 г. — Томск: Томский государственный университет. 2010. Т. 1. С. 271—272.

5. Кинэн М. Технологический Форсайт: международный опыт // Форсайт. 2009. Т. 3. №3. С. 60—68.

6. Киященко Л.П. Трансинституциональная матрица инновационного сообщества // Философские науки, 2010. №12. С. 50—57.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

7. Кудрявцев Д.В., Гаврилова Т.А. Типовые ошибки концептуального моделирования. Четвертая международная конференция по когнитивной науке: Тезисы докладов: В 2 т. Томск, 22—26 июня 2010 г. — Томск: Томский государственный университет. 2010. Т.2. С. 362—364.

8. Литвак Б.Г. Экспертные оценки и принятие решений. — М.: Патент, 1996.

9. Поддьяков А.Н. Непереходность (нетранзитивность) отношений превосходства и принятие решений // Психология. Журнал высшей школы экономики. 2006. Т. 3. №3. С. 88—111.

10. Саати Т., Кернс К. Аналитическое планирование. Организация систем. — М.: Радио и связь, 1991.

11. Сорина Г.В. Принятие решений как интеллектуальная деятельность. — М.: Канон+, 2009.

12. Талеб Н.Н. О секретах устойчивости. По следам «Черного лебедя». — М.: КоЛибри, 2010.

13. Юдковски Е. Когнитивные искажения, потенциально влияющие на оценку глобальных рисков. [Электронный ресурс]. Режим доступа: http:// humanextinction.ru/bias.htm/; http://proza.ru/2007/03/08-62. Aldous D. Review of «The Black Swan: The Impact of the Highly Improbable»// Notice of the AMS, 2010, № 3. P. 427 — 431.

14. Chapman G.B., Johnson E.J. Incorporating the Irrelevant: Anchors in Judgments of Belief and Value // Heuristics and Biases: The Psychology of Intuitive Judgment / Gilovich, T., Griffin, D., and Kahneman, D. (eds.). Cambridge, U.K.: Cambridge University Press, 2003.

15. Taleb N. The Black Swan: Why Don’t We Learn that We Don’t Learn? New York: Random House, 2005.

i Надоели баннеры? Вы всегда можете отключить рекламу.