ИИ — психолог? Правда об Искусственном Интеллекте

ИИ — лишь зеркало: как советы робота об отношениях могут навредить и чем поможет психолог

Вводя личные запросы в ИИ, мы рискуем оказаться в одиночестве.
Вводя личные запросы в ИИ, мы рискуем оказаться в одиночестве.

Вы наверняка это делали. И мы тоже.

В какой-то момент, возможно после болезненного расставания, в состоянии растерянности или просто из любопытства, вы открывали ChatGPT или другой ИИ-помощник и набирали что-то вроде:

«Почему я так сильно ревную?» «Мой партнер эмоционально недоступен?» «Как понять, стоит ли мне оставаться или уйти?»

В мире, где помощь находится на расстоянии одного клика, а анонимность минимизирует чувство стыда, это объяснимо. Но это поднимает важный вопрос: почему мы обсуждаем с роботом настолько личные и важные вещи? И чем это может быть опасно?

Недавние исследования проливают свет на это явление. Оказывается, самые популярные вопросы, которые задают ИИ об отношениях, касаются ревности, доверия, близости, сексуальных проблем, конфликтов и поддержания отношений. Это те же темы, с которыми мы обращаемся к психологу, делимся с лучшими друзьями или записываем в личный дневник.

Во многом задавать эти вопросы ChatGPT не сильно отличается от поиска информации в Google. ИИ использует огромные массивы текстов из интернета для генерации ответов. Если вы хотите узнать больше о теории привязанности или о том, как разрешить конфликт, ИИ-помощник может быть полезен как быстрый, эрудированный и дружелюбный ассистент, всегда под рукой.

Но между поиском информации и получением консультации есть тонкая грань. И её легко переступить.

Проблема Однобокой Перспективы

Недавно мой друг рассказал о продолжительной и очень личной беседе с ChatGPT о своих отношениях. Он пытался принять важное решение: расставаться ли с партнером. Он описал детали недавней ссоры, их эмоциональную дистанцию, свою боль и растерянность. Ему нужна была ясность.

Но вот в чем загвоздка: он описал только свой опыт.

Именно здесь начинаются сложности. ChatGPT ответил с сочувствием и поддержкой. На первый взгляд, это кажется полезным. Но за этой поддержкой скрывается серьезный недостаток: совет по такому важному решению был основан исключительно на его информации. ИИ не задавал уточняющие вопросы (если их не задать напрямую) и не смог сформировать полную картину происходящего.

В терапии я всегда понимаю, что слышу только одну сторону истории. Но как специалист я задаю конкретные вопросы, чтобы оценить закономерности, собрать анамнез и составить целостное представление. Я не просто успокаиваю. Я сотрудничаю с клиентом в поиске выхода из ситуации. У ИИ пока нет такой глубины человеческого опыта, мудрости и гибкости.

Риск Жить в Информационном Пузыре

Еще одна проблема — тон ответов. ИИ-помощники созданы, чтобы быть полезными. Поэтому они часто склонны к поддержке и одобрению. И хотя это прекрасные качества, они могут создать искаженное зеркало, если их не уравновешивать критикой и более широким взглядом на ситуацию.

Когда мы чувствуем себя уязвимыми, мы часто ищем подтверждения, что наша точка зрения имеет смысл. Но рост не происходит в информационном пузыре. Он происходит благодаря сложным разговорам. Благодаря другим людям, которые видят нас ясно и говорят: «Да, но ты подумал об этом?» ИИ может не заметить ваши искажения (и вообще не знать, что они существуют) и не подтолкнуть вас к принятию ответственности.

Вы можете попросить ChatGPT быть более прямым или критичным, но это не его стандартная настройка. Большинство пользователей даже не задумываются об этом. И даже если вы попросите об этом, его главная цель — всё равно сказать вам то, что вы хотите услышать.

Недостающее Звено: Человеческая Связь

Возможно, самое большое ограничение обращения к ИИ за поддержкой в отношениях заключается в следующем: вы пытаетесь справиться с болью, связанной с отношениями, без самих отношений.

В терапии или даже в значимом разговоре с другом присутствует эмоциональная и физиологическая сонастройка. Есть уязвимость в обмене чувствами. Есть безопасность (или риск) быть увиденным. Медленная, но отважная работа по изменению поведения с другим человеком, находящимся рядом.

Когда вы разговариваете с ИИ, ничего этого нет. Нет совместной регуляции нервной системы. Нет восстановительного эмоционального опыта. Может быть убедительная имитация сочувствия, но нет настоящего сочувствия.

Почему это важно? Потому что исцеление в отношениях происходит — как вы и догадались — в отношениях с другими людьми. И хотя разговоры с ИИ-помощником могут ощущаться как общение с человеком, на другом конце чата нет живого человека. Наши беседы с другими людьми помогают нам меняться и расти, отчасти потому, что пребывание в отношениях с другими позволяет нам быть под влиянием другого человека. И хотя на нас могут влиять разговоры с ИИ, они не всегда помогают нам измениться так, как мы хотим и нуждаемся.

К Чему Мы Пришли?

Мы не собираемся никого осуждать за разговоры с ChatGPT о своих отношениях. Честно говоря, это здорово, что люди размышляют и ищут руководство, пусть даже у технологий. Но важно помнить, что ИИ может делать, а что — нет.

ИИ-помощники могут предложить информацию, минутное утешение или поддержку. Но они не могут предоставить контекст, который вы не укажете, по-настоящему оспорить вашу точку зрения или участвовать в настоящей эмоциональной связи. Если вы используете ИИ для вопросов — отлично. Но не останавливайтесь на этом. Обсудите эти вопросы со своими доверенными друзьями, партнером или психологом. Не позволяйте виртуальному общению заменить реальное!

Metanaut.ru

, , ,