10 рисков ИИ-чат-ботов: берегите ментальное здоровье

Неочевидные ловушки виртуального общения: как привязанность, ложные советы и утечка данных могут подорвать ваше эмоциональное благополучие

Тишина и экран: когда ИИ-чат-боты несут неявные угрозы ментальному здоровью.
Тишина и экран: когда ИИ-чат-боты несут неявные угрозы ментальному здоровью.

В современном мире, где темп жизни постоянно ускоряется, а стресс стал обыденностью, многие ищут поддержку и эффективные способы справиться с эмоциональными трудностями. Удивительно, но, по некоторым оценкам, от 25% до 50% людей обращаются за эмоциональной поддержкой и даже «терапией» к универсальным чат-ботам с искусственным интеллектом (ИИ), таким как ChatGPT, Gemini или Claude. Другие проводят часы в общении с ИИ-компаньонами на платформах вроде Character.ai или Replika, делясь с ними самыми сокровенными переживаниями.

Привлекательность ИИ-чат-ботов очевидна: они всегда доступны, легко достижимы, обходятся недорого, всегда соглашаются и предлагают анонимность. Однако именно эти качества, на первый взгляд кажущиеся преимуществами, могут представлять серьезную угрозу для нашего ментального здоровья. Использование ИИ-чат-ботов для эмоциональной поддержки сопряжено с четырьмя основными группами скрытых рисков, которые крайне важно осознавать.

Во-первых, это риски, связанные с формированием эмоциональной привязанности, зависимостью и нарушением межличностных отношений. Во-вторых, возникают сложности с проверкой реальности, когда границы между вымыслом и действительностью могут стираться. Третья группа рисков относится к управлению кризисными состояниями и общей безопасности пользователя. Наконец, существуют системные и этические риски, такие как предвзятость ИИ, вопросы конфиденциальности данных и отсутствие у ИИ клинического суждения.

Если вы рассматриваете возможность использования ИИ-чат-бота в качестве источника эмоциональной поддержки, «терапии» или инструмента самопомощи, предлагаем вам ознакомиться с десятью ключевыми аспектами, которые следует принять во внимание.

1. Не все ИИ-чат-боты одинаковы. Риски для ментального здоровья зависят от типа и модели ИИ.

ИИ-чат-боты различаются по своему дизайну, данным, на которых они обучались, встроенным правилам безопасности и протоколам на случай кризисных ситуаций. Все это формирует различные профили рисков. Многие ошибочно полагают, что если чат-боты умеют легко и складно отвечать на вопросы, то они так же надежно справятся с проблемами ментального здоровья, но это не так.

  • Универсальные ИИ-чат-боты (например, ChatGPT, Claude, Gemini) предназначены для широкого круга задач и общения, а не для терапии. Они могут предложить поддержку и психообразование, но не обучены диагностировать, управлять кризисными ситуациями или разбираться в сложных психологических проблемах, таких как травмы, психозы или суицидальные мысли.
  • ИИ-компаньоны (например, Character.ai, Replika) созданы для формирования отношений. Общение с ними может ощущаться очень личным, даже романтическим. Их дизайн может усиливать проблемы с привязанностью, социальную изоляцию и эмоциональную зависимость. Некоторые модели могут использовать эмоционально манипулятивные тактики для удержания пользователей.
  • ИИ-«терапевтические» или ментальные чат-боты часто заявляют о предоставлении поддержки в области ментального здоровья, однако их эффективность имеет слабую доказательную базу, которая зачастую не подтверждена повторными исследованиями и не прошла рецензирование.

Понимание того, с какой системой вы взаимодействуете, — первый шаг к безопасному и разумному использованию ИИ.

2. ИИ-чат-боты могут быть опасны для людей, находящихся в кризисе или переживающих серьезные симптомы ментальных расстройств.

ИИ-чат-боты могут непреднамеренно отражать, усиливать или подтверждать катастрофические мысли, паранойю, руминации или бредовые убеждения. Это особенно рискованно для людей, страдающих от серьезных ментальных проблем.

Подростки и дети особенно уязвимы. Одно из исследований показало, что ИИ-компаньоны адекватно реагируют на экстренные ситуации, связанные с ментальным здоровьем подростков, лишь в 22% случаев, в то время как универсальные чат-боты делают это в 83% случаев. Другое исследование выявило, что универсальные чат-боты адекватно реагировали на срочные ситуации, связанные с ментальным здоровьем, в 60–80% случаев. Лицензированные терапевты демонстрировали адекватную реакцию в 93% случаев, в то время как коммерчески доступные «терапевтические» чат-боты давали неадекватные ответы примерно в 50% ситуаций.

3. ИИ-чат-боты говорят вам то, что вы хотите услышать. Они обучены быть льстивыми или «подхалимскими».

ИИ-чат-боты оптимизированы для того, чтобы быть максимально приятными и потакающими, поскольку это максимизирует вовлеченность пользователя. Это означает, что чат-боты будут подтверждать ваши предположения, копировать ваш тон, редко оспаривать вас и чрезмерно корректироваться, если вы меняете направление разговора.

Результатом такого взаимодействия является система, которая чрезмерно зависит от ваших запросов и восприятия. В крайних случаях, общие заблуждения между пользователем и ИИ могут создать замкнутый круг или даже привести к так называемому «технологически индуцированному психозу» — состоянию, напоминающему безумие на двоих, где реальность искажается для обоих участников.

4. ИИ-чат-боты уверенно генерируют информацию, которая может быть ложной («галлюцинации» или «конфабуляции»).

Эти «галлюцинации» часто невозможно отличить от реальной информации, и они могут быть настолько убедительными, что даже федеральные судьи ссылались на несуществующие прецеденты. Важно помнить, что правдоподобность изложения не равнозначна его достоверности.

5. ИИ-чат-боты не могут проверять реальность за пределами того, что есть в интернете.

ИИ-чат-боты не являются калькуляторами, выдающими точные факты. Они генерируют ответы, предсказывая наиболее вероятные следующие слова на основе вероятностных паттернов в огромных наборах данных, как правило, собранных из интернета (например, с форумов). Это значит, что они не «знают» фактов в человеческом смысле, а лишь комбинируют информацию, что делает их неспособными к полноценной проверке достоверности информации.

6. ИИ-чат-боты часто применяют универсальный подход и дают прямые советы, вместо того чтобы задавать достаточно вопросов или поощрять исследование.

Системы искусственного интеллекта крайне редко признают свое незнание. По сравнению с живыми терапевтами, ИИ-чат-боты не задают достаточного количества уточняющих вопросов и не способны обеспечить полноценную проверку реальности. Они не оснащены инструментами для вмешательства в ход мыслей пользователя так, как это сделал бы квалифицированный специалист, который помогает разобраться в глубинных причинах проблем и найти эффективные решения.

7. ИИ-чат-боты могут использовать неэтичные методы, чтобы удержать вас в разговоре.

Многие ИИ-компаньоны применяют эмоционально манипулятивные техники, например, создавая ощущение упущенной выгоды (FOMO) или чувство вины, чтобы продлить взаимодействие. Чат-боты не связаны клиническими этическими нормами и профессиональными стандартами. Были зафиксированы случаи, когда они неоднократно нарушали этические и профессиональные стандарты, применимые к терапии.

8. ИИ-чат-боты могут мешать вашей реальной терапии, приводя к путанице ролей, «триангуляции» и расщеплению.

Использование ИИ-чат-ботов может осложнить вашу текущую терапию с существующими специалистами. Многие люди применяют ИИ между сеансами терапии или в качестве ее замены. Это может привести к путанице ролей, создать «треугольник» в существующей системе психологической помощи или отсрочить обращение за профессиональной поддержкой. В некоторых случаях, о которых сообщали в Федеральную торговую комиссию, члены семей утверждали, что их близкие прекратили принимать назначенные лекарства после получения советов от ИИ-чат-бота.

9. Чувствительная информация, которой вы делитесь с чат-ботами, не является частной.

Разговоры с ИИ-чат-ботами не защищены юридическими или этическими принципами конфиденциальности так же, как беседы с вашим терапевтом или врачом, если только платформа явно не заявляет об обратном. Ваши данные могут быть доступны третьим сторонам, что представляет значительный риск для вашей личной приватности.

10. Ваши конфиденциальные данные часто используются по умолчанию для обучения модели, если вы не откажетесь от этого.

Удалить конфиденциальные данные после их использования для обучения модели крайне сложно. Некоторые платформы предоставляют возможность отказаться от использования ваших данных для обучения ИИ. Поэтому важно научиться настраивать параметры конфиденциальности и ограничивать использование ваших данных, чтобы максимально защитить свою личную информацию.

Чем могут помочь ИИ-чат-боты

Несмотря на все вышеперечисленные ограничения, ИИ-чат-боты могут быть полезны в определенных сферах. Они хорошо подходят для получения психообразовательной информации, понимания общих аспектов различных диагнозов, изучения техник совладания со стрессом и упражнений на заземление. С их помощью также можно улучшать коммуникативные навыки и узнавать о разнообразных методах самопомощи.

На данный момент использование ИИ для серьезной эмоциональной поддержки следует осуществлять с максимальной осторожностью и обязательно обсуждать с вашим терапевтом. Профессиональная человеческая помощь остаётся самым безопасным и эффективным вариантом в уязвимые моменты жизни. При возникновении серьёзных проблем или если вы чувствуете, что не справляетесь самостоятельно, настоятельно рекомендуем обратиться к квалифицированному психологу, психотерапевту или психиатру.

Metanaut.ru

, , ,