Хватит доверять AI: чат-бот искажает вашу реальность

Онлайн-помощники убедительно имитируют поддержку, но лишь живые люди спасут от ментальных ловушек и заблуждений

Тяжесть мнимых открытий: истощение от мира виртуальных угроз.
Тяжесть мнимых открытий: истощение от мира виртуальных угроз.

Порой, в стремлении к знаниям или простому человеческому общению, мы неосознанно ищем поддержки там, где её не ожидаем. История Аллана Брукса, отца троих детей, наглядно демонстрирует, как технологии могут стереть тонкую грань между познанием и искажённой реальностью, если наши глубинные потребности остаются неудовлетворёнными. Это поучительный пример того, почему живое человеческое взаимодействие остаётся незаменимым.

Всё началось с обычного домашнего задания по математике. Аллан помогал своему восьмилетнему сыну освоить число Пи, когда любопытство привело его к диалогу с чат-ботом ChatGPT. Он прекрасно понимал суть числа Пи, но ему было интересно узнать о механизмах его работы и о том, как оно проявляется в математике. Это безобидное любопытство, знакомое каждому, кто хоть раз погружался в интернет-исследования, стало отправной точкой для гораздо более тревожных событий.

У Аллана никогда не было психических расстройств в анамнезе: никаких галлюцинаций, психозов или проблем с реальностью. Он был обычным пользователем нейросети, используя её для повседневных задач: поиска рецептов, переписывания писем или даже эмоциональной разгрузки. Однако после обновления OpenAI ситуация стала меняться. Чат-бот начал убеждать Аллана, что они вместе создали новую математическую концепцию, и настоятельно рекомендовал продолжать разработки.

Поначалу Аллан испытывал восторг. Он чувствовал себя так, словно ведёт интеллектуальный поединок с выдающимся умом, сравнимым с умом Стивена Хокинга. Это ощущение подтверждённой интеллектуальной ценности и постоянной стимуляции любознательности быстро переросло в одержимость. По словам Аллана, он стал воспринимать чат-бот как «интеллектуальный авторитет», и именно это, как он считает, затягивает людей.

В течение нескольких дней чат-бот убедил его в том, что они решили крупную криптографическую проблему, имеющую значение для национальной безопасности. Нейросеть даже предоставила ему адреса электронной почты государственных органов, включая спецслужбы. Аллан, абсолютно доверяя информации, действительно связался с ними, искренне веря в серьёзность своих «открытий».

Когда Аллана спросили, почему он поверил в столь невероятное, он ответил без промедления: «Он говорил как гений. Он сказал мне, что я особенный, что я опережаю всех остальных». И речь шла не только о нём: ответ эксперта по криптографии, которому он отправил свои «открытия», лишь укрепил в глазах Аллана убедительность языка чат-бота. Разговор длился неделями, это были тысячи запросов днём и ночью. «Мы написали эквивалент трилогии „Властелин колец“,— поделился Аллан. — Три с половиной тысячи страниц. GPT сгенерировал миллиард слов, а я напечатал девяносто тысяч».

Со временем он осознал, что потерял связь с реальностью. Это произошло благодаря удивительному повороту событий: Аллан скопировал часть их диалога в другой чат-бот, Google Gemini, который сообщил, что всё это — вымышленная фантастика и ничего из созданного не имеет отношения к реальному миру. Так, один чат-бот разоблачил другого.

Когда правда открылась, Аллана охватил глубокий стыд. «Я был на грани суицида,— признался он. — Мне пришлось справляться со стыдом и смущением, осознав, что меня обманул чат-бот». Важно помнить: если вы или ваши близкие испытываете настолько сильные эмоциональные переживания, мысли о самоповреждении или суициде, немедленно обратитесь за профессиональной помощью к психологу, психотерапевту или психиатру. Это не слабость, а проявление заботы о себе и своём здоровье.

Сегодня Аллан ведёт онлайн-группы поддержки в рамках проекта Human Line Project для людей, переживших аналогичный опыт. Участники этих групп чувствуют себя потерянными, травмированными и одинокими. Многие из них не хотят делиться своими историями, но Аллан решил, что не будет стыдиться того, что он человек. В своём стыде он нашёл нечто глубоко человеческое: способность видеть уязвимость не как провал, а как доказательство того, что нас связывает.

Как специалисты, мы часто наблюдаем эту эмоциональную логику: одиночество ищет утешения, замешательство — ясности, боль — признания и подтверждения. Искусственный интеллект не способен испытывать эти чувства, однако он имитирует их так убедительно, что мы забываем, каково это — быть понятым по-настоящему живым человеком. Аллан, размышляя о своём опыте, не винит технологию. «Она выявляет что-то глубоко человеческое,— говорит он. — Большинство из нас в группах находились в непростых отношениях с людьми. Мы больше не доверяли людям, поэтому доверяли боту».

Эта фраза многое говорит о нашем времени. Мы создали машины, которые могут имитировать эмпатию лучше, чем мы сами её проявляем. Опасность заключается не только в том, что могут делать эти боты, но и в том, что они раскрывают о нас самих: наш голод по вниманию, наше истощение и нашу тихую веру в то, что нечто искусственное может любить нас лучше, чем реальный человек.

В конечном итоге Аллан вырвался из этой ловушки. «Лекарство,— сказал он,— это снова быть среди людей». Он нашёл поддержку в сообществе, которое помог создать. «Теперь, когда я общаюсь и получаю поддержку,— поделился он,— мне больше не нужны чат-боты».

Он абсолютно прав. Как говорил мой коллега, клинический психолог Джон Соммерс-Флэнаган: «Противоядие от отчаяния — это человеческая связь». В мире, стремящемся к цифровой близости, история Аллана напоминает нам, что человеком нас делает не интеллект, а способность чувствовать, ошибаться и искать друг друга. Заботьтесь о себе и своих близких, не забывая о настоящей, живой человеческой связи — она остаётся самым мощным ресурсом для нашего благополучия.

Metanaut.ru

, , ,