- Регистрация
- 05.02.2026
- Сообщения
- 475
- Реакции
- 8
- Баллы
- 255
Такие результаты показал эксперимент студентки MIT Ынхэ Ли. Она предложила 238 добровольцам сыграть в игру с инвестициями. Участники распределяли деньги между акциями с высоким, средним или низким риском и доходностью.
Перед началом игры людей попросили указать дату рождения для гороскопа и пройти тест на психологический портрет личности. Также им сказали, что ИИ будет анализировать, как они распределяют средства.
После игры участникам выдали три «прогноза» их инвестиционного поведения: от астролога, психолога и ИИ (у половины они были положительными, у половины - негативными) и попросили их оценить. При этом игрокам не сказали, что на самом деле тексты никак не учитывали их особенности.
Оказалось, что те, кто высоко оценил прогноз «астролога» или «психолога», доверяли и «ИИ». При этом позитивные оценки («вы рациональный инвестор, вас ждет успех») воспринимались как более достоверные, чем негативные («вы импульсивны, доходы будут низкими»). Аналитический стиль мышления не влиял на доверие к прогнозам, в отличие от веры в паранормальное и позитивного отношения к ИИ в целом.
Автор связывает результаты с эффектом Барнума - особенностью восприятия, благодаря которой расплывчатые описания вроде гороскопов кажутся нам точными и личными, особенно если они приятные.
На практике пользователи могут переоценивать советы ИИ, когда они звучат позитивно. Поэтому важно, чтобы чат-боты побуждали пользователя к критическому мышлению - особенно в чувствительных областях вроде медицины или финансов.
А чему вы охотнее доверитесь?