Почему люди предпочитают не замечать ошибок ИИ?

Зачастую дело не в том, что люди не хотят замечать неточности работы ИИ. Мы попросту не можем их заметить. Психолог доктор Аррен Роббинс из Университета Ричмонда считает, что проблема с распознаванием изображений, созданных искусственным интеллектом, не нова. Раньше людям так же трудно было распознавать компьютерную графику в фильмах или обработанные в фотошопе изображения. Только если раньше видео и фотографии редактировал живой человек, то теперь изображения и видео создаются алгоритмами, обученными на основе наборов данных.
Эксперименты показывают, что многие с трудом отличают реальные изображения от искусственных независимо от их происхождения. Когда людей просят выбрать из перечня изображений реальные, обработанные человеком и созданные искусственным интеллектом, многие путаются.
Дело в том, что зрение человека не приспособлено быстро замечать мелкие детали: сначала мы "сканируем" общий план, а потом уже сосредотачиваемся на мелочах. Такой метод восприятия информации - результат тысяч лет эволюции. В древнейшие времена для выживания нашим предкам нужно было быстро оценивать окружающую обстановку: не притаился ли враг или хищник в кустах. Скорость обнаружения для них была важнее точности.
В современном мире этот механизм продолжает работать. В психологии есть понятие "слепота по невниманию": когда человек сосредоточен на одной задаче, он упускает из виду не относящиеся к ней детали. Второе название этого явления - "эффект невидимой гориллы", в честь знаменитого исследования. Участников эксперимента попросили посмотреть видеоролик, где баскетбольная команда передавала друг другу мяч. Задача была - подсчитать передачи мяча. В середине ролика на игровое поле вышел человек в костюме гориллы, но примерно половина участников исследования не заметила его. Точно такой же "невидимой гориллой" могут быть ошибки искусственного интеллекта. Мы не ищем на сгенерированных фотографиях лишних пальцев, потому что наша цель - понять общий смысл картинки, и мозг, стремясь к экономии энергии, охотно принимает предложенную ему информацию.
Помимо ограничений визуального восприятия есть и другие особенности работы нашего мозга, из-за которых мы можем не замечать очевидное. Нобелевский лауреат Даниэль Канеман в своей теории описывает две системы мышления: быструю, интуитивную, основанную на стереотипах и шаблонах, и медленную, аналитическую, требующую значительных умственных усилий. При беглом просмотре ленты социальных сетей мы пользуемся быстрой системой. Мы смотрим на сгенерированные тексты или изображения, не утруждая себя критическим анализом, поэтому и не замечаем неточности.
Еще одна причина - так называемая "предвзятость по убеждениям". Дело в том, что мы склонны искать информацию, подтверждающую наши убеждения и опыт, и отвергать факты, противоречащие им. Если созданная ИИ картинка кажется нам красивой, или нам нравится идея текста, написанного ChatGPT, мы, скорее всего, не заметим ошибки или отнесемся к ним снисходительно.
Существует такое понятие, как "предвзятость, вызванная автоматизацией", или "ошибка автоматизации". Многие склонны неосознанно доверять решениям компьютера, считая их более надежными и непредвзятыми. Искусственный интеллект зачастую представляется как "эксперт" во всех областях. Даже если его ответ кажется не совсем правдоподобным, человек может не захотеть проверять информацию сам. В большинстве случаев мы подумаем, что сами чего-то не знаем, но не заподозрим в ошибке алгоритм. Когда решение принимает ИИ, мы чувствуем меньше ответственности, поэтому желание самостоятельно перепроверять факты пропадает.
Таким образом, зачастую мы не замечаем неточности в работе нейросетей не просто по причине невнимательности или лени. Мы воспринимаем информацию под воздействием многих факторов, будь то особенности зрения или работы мозга, поэтому даже очевидные ошибки часто остаются незамеченными. Искусственный интеллект с каждым днем совершенствуется, скоро даже самым внимательным будет сложно отличить плод человеческого труда от работы ИИ. Стоит начать тренироваться уже сейчас, пока ошибки нейросетей еще очевидны.

