Мы гордимся тем, что принимаем рациональные решения. Мы можем анализировать данные, подавлять инстинкты борьбы или бегства и спокойно приходить к хорошо продуманным выводам. За исключением тех случаев, когда мы этого не делаем.

Лауреат Нобелевской премии по экономике Даниэль Канеман посвятил всю свою жизнь иллюстрированию дефектов нашей логики. В его книге «Мышление быстрое и медленное» приводятся убедительные примеры того, как наш мозг обманывается эмоциональными стимулами.

Вот несколько примеров.

1. Познавательная легкость

Адольф Гитлер родился в 1892 году.

Адольф Гитлер родился в 1887 году.

Оба они ложны. Он родился в 1889 году. Подавляющее большинство людей предположит, что дата 1892 год верна из-за того, что заявление визуально выделяется. Другой пример: сравнивая два афоризма, мы с большей вероятностью поверим утверждению, которое рифмуется.

Объяснение - когнитивная легкость. Наш мозг может обрабатывать информацию быстрее, и поэтому нам удобно доверять нашей первой реакции на данные. Те из вас, кто верит, что «Мерцание» Малкольма Гладуэлла — правда, действуйте осторожно. «Великие по выбору» Джима Коллинза и «Думай, быстро и медленно» заставят вас еще раз задуматься о нашей способности высказывать здравые суждения, особенно когда ставки растут.

2. Якоря

Это фаворит психологов и бизнес-писателей. Классическим примером привязки является эксперимент, в котором испытуемый крутит колесо фортуны с числами в диапазоне от 0 до 100. Колесо настроено так, чтобы оно выпадало либо на 10, либо на 65. Затем испытуемого спрашивают, сколько африканских стран входят в ООН. . Как и следовало ожидать, люди, получившие 65, угадывают намного большее число, чем те, кто получает 10. Ответ: 54.

Когда у нас нет хорошего понимания диапазона значений, чтобы ответить на вопрос, мы ищем якоря. Как это применимо к деловому миру? Примером может служить введение iPhone. Продукт был настолько новым и желанным, что оценка устройства была скорее искусством, чем наукой. Стив Джобс изобретательно зафиксировал цену с огромной надбавкой по сравнению с моноблоком Nokia за 100-200 долларов и телефоном-раскладушкой Motorola. iPhone стартовал по цене 600 долларов*. Из-за того, что мобильные телефоны меньшего размера стоят от 100 до 200 долларов, Apple быстро снизила цену до 400 долларов. Несмотря на это, цена в 600 долларов стала отличным новым якорем для категории смартфонов и помогла Apple получить огромную прибыль.

*Удивительно, но эта цена была наличной ДАЖЕ при обязательном двухлетнем контракте с AT&T.

3. Убеждены деталями

Что звучит более вероятно?

У Марка есть волосы.

У Марка светлые волосы.

Проблема кажется простой. Если у Марка светлые волосы, у него есть волосы. У Марка также могут быть каштановые, рыжие или черные волосы. Следовательно, утверждение «У Марка есть волосы» более вероятно.

Люди не справятся с этой задачей. Утверждение «У Марка светлые волосы» более яркое, и поэтому его легче визуализировать человеку. Наша способность визуализировать светловолосого мужчину обманывает нас, выбирая «у Марка светлые волосы» в качестве более вероятного сценария.

4. Регрессия к среднему

Мы любим победителей и презираем проигравших. Именно из-за стадного менталитета пузыри на фондовом рынке неизбежны. Мы забываем, что то, что поднимается, должно опускаться.

5. Излишняя уверенность в экспертах

Эксперты на удивление плохи в прогнозах. Уважаемые эксперты хорошо справляются с созданием убедительных аргументов в пользу вероятности того или иного исхода. Еще лучше они находят оправдания тому, почему их предсказания неизбежно терпят неудачу. Оказывается, вера экспертов в свою непогрешимость не только ошибочна, но и опасна. Новичок обратит внимание на статистику и оповещения о важных сигналах. Новичок знает, что они не знают. Эксперт часто игнорирует алерты и сигналы. Они верят в свою интуицию, распознавание образов и опыт в отношении того, что показывают данные. Военные вкладывают средства в радарные системы для обнаружения возможного вторжения противника. Когда радар фиксирует большое пятно на расстоянии 132 миль и приближается, дежурный старший лейтенант говорит оператору радара игнорировать его. После внезапной атаки погибло 2403 американца.

6. Оценка эмоционального риска и возможностей

Опять же, наша визуализация обманывает нашу оценку рисков. Мы визуализируем, как смотрим на наш билет и слышим совпадающие числа с лотерейным джекпотом. Мы придаем гораздо большее значение нашим шансам выиграть эту необычайно длинную ставку, чем того требуют шансы.

С другой стороны, когда шансы очень в нашу пользу, мы готовы обменять благоприятные шансы на верную вещь.

Канеман уделял этой проблеме огромное внимание.

Вот четыре сценария, которые он изучил.

Проблема 1: Получите 900 долларов наверняка или 90% шансов получить 1000 долларов

Проблема 2: Потерять 900 долларов или 90% шанс потерять 1000 долларов

Задача 3: Вам дали 1000 долларов. Затем вам предлагается выбрать, 50% шанс выиграть 1000 долларов или получить 500 долларов наверняка.

Задача 4: Вам дают 2000 долларов. Затем вам предлагается выбрать, 50% шанс потерять 1000 долларов или потерять 500 долларов наверняка.

Вот выводы.

Что касается проблемы 1, гораздо больше людей выбирают верную вещь за 900 долларов.

Что касается проблемы 2, гораздо больше людей выбирают 90%-ную игру на 1000 долларов.

Что касается проблемы 3, гораздо больше людей предпочли верный ответ.

Что касается проблемы 4, гораздо больше людей предпочли азартную игру.

Вот выводы Канемана.

  • Когда у нас есть определенная ценность, мы придаем большее значение тому, что у нас есть, а не привлекательной возможности.
  • Когда мы сталкиваемся с плохой ситуацией (проигрыш), мы будем принимать дальнейшие плохие решения (плохие ставки).
  • Когда мы наделены даром, мы не хотим идти на риск, составляющий высокий процент от стоимости дара, но готовы рискнуть, если процент дара составляет небольшой процент от принципа.

Алгоритмы совершенствуются быстрее, чем люди

Машинное обучение бесстрастно и основано на данных. Машины будут нормализовать данные и одинаково относиться к заявлениям Гитлера, не реагируя на жирный шрифт. Машины не будут хранить более высокую ценность в рифмованных стихах при оценке фактической точности утверждения.

Машинное обучение действительно начинается с якорей, но быстро возвращается к среднему значению. Фактически, это один из ключевых атрибутов машинного обучения. Машины рассчитывают на данные и быстро раскрывают свои истины. Машины отпустят исторические закономерности, которые больше не подтверждаются, и будут доверять данным, а не экспертным мнениям и прогнозам.

При расчете рисков машины удалят эмоции из решений, что в долгосрочной перспективе приведет к превосходным результатам.

Скайнет или Спок

Восстание машин происходит сейчас. Машины выигрывают в шахматы, го и покер. Безусловно, это очень структурированные игры с конечными правилами, которые идеально подходят для машин. Критическое мышление в хаотичном мире по-прежнему является областью, в которой люди превосходят машины. Улучшение машинного обучения происходит быстро. С миллиардами долларов и большими мозгами, сосредоточенными на этой области, ожидайте, что закон Мура применим к машинному обучению.

Помешает ли машинное обучение принимать иррациональные решения? Вопросы свободы воли входят в научно-фантастическое будущее.

Хотите заехать в океан? — Извини, Майкл, я не могу этого сделать.

Хотите поставить дом на красное? «Извините, ваш запрос на финансирование был отклонен».

У нас есть курс этики для медицины и права. Приближается время, когда этика в компьютерных науках будет необходима. По мере того, как машины помогают нам лучше понять логику того, что мы ранее принимали за прихоть богов и непостижимый хаос природы, «правильные» решения станут более очевидными. Какова ответственность личности, когда она решает порвать с «правильным» решением? Компьютеры достигнут точки, когда социальные издержки «неправильных» решений будут рассчитываться с высокой точностью. Рискованное вождение. Прожорливые диеты. Злоупотребление лекарствами, отпускаемыми по рецепту. Курение. Незащищенный секс. Машина может точно рассчитать вероятность неблагоприятного исхода, который приведет к социальным издержкам и опасности для невинных жертв. Должен ли человек, делающий этот «неправильный» выбор, облагаться налогом за свое поведение?

Это возвращает вопрос о чувстве жизни. Машины дадут нам возможность принимать правильные решения, чтобы жить здоровой жизнью, при условии, что мы будем следовать рекомендациям относительно наилучших вероятностей положительных результатов. Наши кибер-ангелы могут превратиться в кибер-недовольных, критикующих и подчеркивающих наши неверные решения. В какой момент мы теряем контроль и позволяем матрице бессознательно управлять нашей жизнью? Дадут ли машины нам лучшую приборную панель, чтобы мы могли быстрее добраться до желаемого пункта назначения, или они отправят нас по заранее определенному пути в качестве пленных пассажиров?

Заставляет задуматься. Не знаете, каковы ответы на эти вопросы? Может быть, мы должны спросить Google.