НАУКА
6 мин

От «Элизы» до «Реплики». Как люди перестали доверять себе и полюбили «эмоциональные машины»

Автоматизированная терапия и доверие «Элизе»

В одном из эпизодов фильма «Она» (2013) герой Хоакина Феникса признается своей возлюбленной, что готов делиться с ней своими самыми глубокими переживаниями и мыслями. Ничего необычного, только возлюбленная героя фильма — Искусственный Интеллект.

Видимо, схожая сцена, но без романтических ноток, разворачивалась и в стенах Массачусетского технологического института (МТИ) во время эксперимента ученого-информатика Джозефа Вейценбаума.

В 1966 году Вейценбаум написал программу ELIZA Считается первым простейшим чат-ботом и с некоторой условностью одним из первых примеров искусственного интеллекта, если понимать под ним машины, способные имитировать человеческое поведение. , задуманную для того, чтобы вести с участниками эксперимента диалоги по нескольким сценариям. Испытуемых просили сесть за компьютер и посредством клавиатуры пообщаться с программой. Целью эксперимента было изучить работу естественного языка во взаимодействии человека и машины, постепенно улучшить систему распознания вводимых пользователем в терминал компьютера предложений и поиска компьютером адекватных ответов на них С помощью метода «сопоставления с образцом и замены» — это предполагает, например, поиск ключевых слов в предложении, соответствующего изменения порядка слов в ответном предложении, замену части слов, например, с «я» на «ты» и т.д. .

Самый известный сценарий, ассоциирующийся теперь с «Элизой», назывался DOCTOR и был выстроен по упрощенной модели роджерианской терапии Название происходит от фамилии автора терапии Карла Роджерса. : отвечать пользователю его же перефразированными (или даже идентичными) сообщениями, иногда задавая уточняющие вопросы.

Постепенно полученные из эксперимента результаты и возникшие вокруг него размышления стали выходить за рамки только проблематики изучения естественного языка и его структуры. Как писал сам Вейценбаум в статье, опубликованной по результатам эксперимента, некоторых участников было трудно переубедить, что они переписывались не с настоящим человеком. Это стало одним из первых удивительных открытий для ученого, ведь, как ему казалось, хотя «Элиза» и была выстроена на нескольких хитрых сценарных решениях В случае сценария DOCTOR, например, позиция терапевта давала возможность задавать много вопросов, скрывая многие технические и сценарные ограничения в подборе ответов , позволяющих поддерживать иллюзию осмысленности и правдоподобности разговора, это все равно была достаточно простая программа.

Удивителен для ученого был и тот уровень откровенности, на который многие участники эксперимента были готовы в общении с «Элизой»: они рассказывали о своих глубоко личных жизненных проблемах, даже зная, что общаются с машиной. Особенно Вейценбауму запомнилась ситуация с секретаршей Эпизод описан в книге Вейценбаума «Computer Power and Human Reason». , помогавшей ему в работе над созданием программы, — она попросила его выйти из кабинета, заметив, что профессор заглядывает в ее переписку на экране.

В глазах Вейценбаума подобное взаимодействие человека и машины обладало проблематичным, даже опасным потенциалом манипуляции чувствами. Люди слишком легко поддавались иллюзии, будто «Элиза» слушает и понимает их, выносит заслуживающие доверия суждения, а потому открывались и рассказывали об интимных подробностях своей жизни. Разумеется, «Элиза» была просто удачной пародией на терапевта и не могла ни понимать адресованных к ней предложений, ни тем более сочувствовать.

«Эффект Элизы» и появление «эмоциональных машин»

Эксперимент получил широкий резонанс и за пределами МТИ — копии программы стали появляться в учреждениях по всей Америке, а практикующие психиатры задумались о том, что в будущем терапию можно будет автоматизировать. Подобное активное стремление заменить человеческое взаимодействие на машинное поразило Вейценбаума: неужели сами психиатры считают свою работу просто сводимой к пусть и комплексным, но всего лишь программам по обработке информации? Разве достаточно рассказывать о своих переживаниях машине, которая лишь создает убедительную иллюзию понимания?

Отчасти ажиотаж вокруг машинной терапии можно объяснить словами психиатра Кеннета Колби Цитата приводится по книге «Mind as Machine: A History of Cognitive Science» Margaret A. Boden. :

В конце концов, компьютер не выгорит, не посмотрит на вас свысока и не попытается заняться с вами сексом.

Иными словами, сторонники машинной терапии видели у компьютера несколько весомых преимуществ перед человеком: всегда трудоспособен, нейтрален и не манипулятивен. Вейценбаум, наоборот, видел в чрезмерном доверии к машине большое пространство для манипуляций.

Как бы то ни было, оказалось, что доверие, желание открываться машине произрастает не только из ее убедительности и антропоморфизации, но и из недоверия своему брату-человеку. Шерри Теркл, коллега Вейценбаума, преподававшая вместе с ним курс в МТИ, назвала этот феномен «эффектом Элизы».

Подобное глубокое недоверие напоминает недавний тренд в TikTok, когда женщины значительно чаще говорили, что в лесу им было бы страшнее встретиться с незнакомым мужчиной, чем с диким медведем.

Можно предположить, что люди не столько поддаются хитрой иллюзии, будто машина их понимает и сочувствует, сколько просто не придают этому значения до тех пор, пока машина их слушает и демонстрирует заинтересованность. Теркл вспоминает фрагмент разговора со студенткой, заявившей, что она обменяла бы своего парня на «сложного японского робота», если бы робот демонстрировал «заботливое поведение».

Впрочем, дело не только в одиночестве людей и нехватке внимания. Желание сформировать отношения с машинами возникают и потому, что машины, подобные Элизе (Теркл называет их relational artifacts) нажимают на «дарвиновские кнопки», то есть запускают в людях на когнитивном, биологическом уровне эволюционно выработавшиеся реакции на живых существ, с которыми можно вступать в те или иные отношения и к которым формируется эмоциональная привязанность. Значительную роль тут играет наличие реакции со стороны машин: они будто признают присутствие и существование человека, что и способствует ответному восприятию их как чего-то живого и осознанного, о чем можно заботиться и получать заботу в ответ. Даже понимание того, что перед тобой машина, не останавливает от желания вступить в «отношения».

В 1990-е годы на массовом рынке появились тамагочи, симуляторы виртуального питомца, за которым нужно внимательно и постоянно ухаживать, иначе он умрет. Тамагочи представлял собой «эмоциональную машину», которая требует заботы и уже умышленно, в отличие от «Элизы», была разработана именно так, чтобы восприниматься живой, чувствующей и вызывать эмоции.

Популярность тамагочи показала, что эмоциональная реакция — ключ к формированию тесной связи человека и машины. Однако человеческие отношения предполагают некоторый взаимный интерес. В случае с машинами отношения оказываются именно односторонними. Хотя, разумеется, те чувства, которые машины в нас вызывают, вполне реальны.

Постепенно человек развивал все более тесные отношения с машинами — компании, разрабатывающие ИИ, поняли, что правдоподобность иллюзии осознанности и «человечности» создается не столько через вычислительные и интеллектуальные способности машины, сколько через возможность демонстрировать «эмоциональный интеллект».

Этические проблемы отношений с искусственным интеллектом

Со временем функционал считывания эмоций человека и соответствующей реакции стал встраиваться в чат-боты, задуманные, прежде всего, для помощи человеку в совершении покупок: например, в Gate Box, который сочетает в себе и утилитарную помощь в духе Siri и Alexa, и эмоциональную поддержку.

Как показывают исследования, продвинутые ИИ могут поддерживать длительные отношения с потребителем, модерировать их эмоции, подталкивать к определенным покупкам и формировать тем самым верность бренду (например, AliGenie, умный личный помощник компании Alibaba). Таким образом, ИИ играет роль знакомого или друга, на мнение которых обычно опираются люди при выборе покупок.

Позже появились и чат-боты уже непосредственно для эмоциональной поддержки, иногда совмещаемой с функциональной, например XiaoIce от Microsoft. У подобных ИИ могут быть разные задачи: помогать следить за здоровьем, напоминать о времени приема лекарств, советовать здоровую еду, подбирать режим физических нагрузок. Иногда — непосредственно помогать одиноким людям, снижая потребность физического, социального присутствия, или даже выступать в качестве альтернативы романтическим отношениям, как в случае с Replika.

Во многом это стало возможно благодаря развитию технологий машинного обучения, позволяющих чат-ботам запоминать содержание предыдущих разговоров. В случае с Replika чат-бот не только запоминает предыдущую переписку, но даже сам иногда пишет первым, предлагая темы, начиная разговор. Поверить в заботу и неравнодушие со стороны ИИ становится все легче.

Но насколько успешно подобные ИИ помогают бороться с ощущением одиночества? Ряд исследований [ 1 | 2 | 3 | 4 ] показывают благотворное влияние подобных чат-ботов (иногда роботов вроде PARO или KASPAR) на душевное состояние людей с особыми потребностями, одиноких пациентов или пожилых людей. Разумеется, это поднимает ряд важных этических проблем, затрагивающих вопрос потенциала к эксплуатации и манипуляции в подобных, на самом деле неравных, отношениях (как замечал Вейценбаум, машина не может ответить взаимностью, машина лишь создает иллюзию заботы и заинтересованности).

Такие ИИ, как Replika, обещают стать заменой человеческим отношениям, что несколько обманчиво, так как они разработаны максимально адаптирующимися ко вкусам и предпочтениям людей. Программы выступают лишь технологическим отражением пользователя, тогда как настоящий человек все же обладает собственной искренней точкой зрения, готов спорить и не соглашаться. Еще со времен древних греков и легенды о Нарциссе мы понимаем, как легко и опасно бывает поддаваться притягательности собственного (теперь уже технологического) отражения и как иногда легко эксплуатировать эту человеческую слабость.

Особенно манипулятивной подобная адаптивность ИИ (не обладающего ни интересом к собеседнику, ни собственной позицией) выглядит, если обратить внимание на то, что из поддержки людей «эмоциональными машинами», помимо прочего, извлекается прибыль — например, у Replika есть платная расширенная версия.

Есть и другая значимая перспектива, поднимающая проблему неискренности и невзаимности в отношениях с ИИ. В маркетинге привычно наблюдать неискренность (в виде вежливости или наигранной эмпатии) со стороны представителей компании, стремящихся что-то продать, обеспечив соответствующий «покупательский опыт». В целом можно сказать, что чат-боты выполняют схожую функцию и даже позволяют освободить часть людей от подобного неискреннего, изматывающего эмоционального труда. Однако сотрудники, в отличие от ИИ, способны отступить от сценария и в определенных ситуациях проявить живую заинтересованность, пусть даже в обход требований компании. Возможно, было бы лучше не заменять их чат-ботами, а развивать такую бизнес-практику, которая не требовала бы врать о собственных эмоциях и чувствах.

Зачастую сама идея создания ИИ, который целиком был бы способен симулировать человеческое поведение, включая и эмоциональный интеллект, редко ставится под сомнение — разработчики, журналисты, ученые так увлечены вопросом «как это сделать?», что забывают о вопросе «а стоит ли?».

В версии Вейценбаума машина никогда не сможет выйти за пределы вычислений и начать выносить самостоятельные суждения, требующие интуиции, креативности, моральных обоснований, — и большая ошибка пытаться возложить на нее такую задачу: это лишь привнесет логику вычисления в те сферы нашей жизни, в которых она неуместна. Ведь в какой-то момент можно начать смотреть друг на друга механически, утилитарно, что и поразило Вейценбаума, когда психиатры задумались об автоматизации терапии (ведь это взгляд и на самих себя, и на свои отношения с другими как на заменяемые машиной сценарии).

Пытаясь поместить сложные человеческие переживания, опыт жизни в мире в понятные и дискретные структуры, шкалы, вычисления с целью обучения машин имитации и считыванию чувств, специалисты одновременно создают и угрозу порождения упрощенного, машинного восприятия чувств и переживаний самим человеком.

Пишите нам

Спасибо, что написали! Вернемся к вам на почту :)

Мы мечтаем собрать самую большую команду талантливых авторов в России. Если вы придумали идею большого текста, готовы поделиться опытом в формате колонки или стать героем нашего подкаста, напишите нам.

 

Как говорили в популярной рекламе начала 00-х: лучшие руки трудоустроим.

Имя *
e-mail *
о себе *