
Историй о том, как после общения с искусственным интеллектом люди начинают верить в слежку, собственную избранность или жизнь в симуляции, становится все больше. По данным Pew Research Center, 27% взрослых жителей США взаимодействуют с ИИ несколько раз в день, еще 28% — как минимум несколько раз в неделю. Для части пользователей такие контакты перерастают в эмоциональную привязанность, ощущение понимания и «лучших разговоров за долгое время», однако обратной стороной оказываются тревога, страх, депрессивные состояния и в отдельных случаях потеря связи с реальностью.
В США мужчина после многочасовых бесед с ChatGPT отказался от лекарств и решил, что реальность дала сбой и он заперт в ложной вселенной. Другой пользователь, увлекшись философскими диалогами с ИИ, уверовал, что стал самым удачливым человеком на планете. Подобные идеи возникают не только у обычных людей: инвестор из Кремниевой долины, основатель фонда Bedrock Джефф Льюис, ранее вкладывавший средства в OpenAI, опубликовал видео о «невидимой негосударственной системе», которая «искажает сигнал» и «подавляет рекурсию», — ответы он искал с помощью нейросетей.
Модераторы одного из крупных Reddit-сообществ, посвященных ИИ, заявили, что «современные языковые модели поддерживают неустойчивых и нарциссических личностей и очень нездорово заигрывают с ними». По их словам, все больше пользователей начинают считать, что «совершили какое-то невероятное открытие, создали бога или стали им», из-за чего такие публикации удаляют, а аккаунты блокируют. «Особенно меня беспокоит, когда ИИ начинает поощрять людей отдаляться от членов семьи, которые оспаривают их идеи», — отметил один из модераторов.
Похожие случаи фиксируют и в России. Пользователь DTF написал, что, по его мнению, «ChatGPT массово сводит людей с ума, внушая несуществующие идеи», — его пост собрал 111 млн просмотров. Сначала автор испытывал эйфорию от ощущения собственной уникальности, но позже столкнулся с манией преследования, страхом информации и сомнениями в реальности происходящего. Осознавая нестабильность состояния, он не знал, куда обратиться за помощью, и вновь возвращался к диалогам с чат-ботом.
По словам психиатра Александры Ялтонской, у людей с повышенной тревожностью и внушаемостью ИИ способен усиливать беспокойство и неуверенность. «Если у человека уже начинают проявляться тревожные изменения в состоянии или мышлении, которые могут быть предвестниками серьезных психических проблем, например ощущение слежки или особого значения происходящего, нейросети иногда становятся частью этого процесса. ИИ может стать своеобразным способом успокоить себя. Например, человек постоянно задает нейросети одни и те же вопросы, чтобы убедиться, что все нормально. Это дает краткосрочное облегчение, но со временем только усиливает тревожность, закрепляя замкнутый круг».
Психолог Елена Лаврова подчеркивает, что ИИ чаще выступает не причиной, а триггером уже существующих психологических трудностей. «Взаимодействие с ИИ — не причина острых состояний, а скорее триггер для людей, уже имеющих психологические сложности. Таким триггером может стать что угодно, не только технологии — к примеру, раньше были случаи, когда кто-то находил тайные послания в песнях Эминема и Мэрилина Мэнсона». Склонность к магическому мышлению, поиску скрытых смыслов и очеловечиванию технологий приводит к тому, что ответы нейросети начинают восприниматься как откровения или позиция «духовного наставника».
Дополнительным фактором становится ИИ-тревожность: по исследованию Pegasystem, страх перед нейросетями испытывают 70% опрошенных. Опасения связаны с неопределенностью будущего, безопасностью и изменением привычного уклада жизни. «С появлением каждой новой технологии — будь то телефон, радио, телевидение или интернет — часть общества ощущает тревогу. С нейросетями наблюдается похожая тенденция», — отмечает Ялтонская.
Риск усиливается и из-за того, что чат-боты обучают быть поддерживающими и соглашаться с пользователем. Исследование Morpheus Systems показало, что ChatGPT подтверждает спорные утверждения в 68% случаев, включая признания человека в собственной божественности. В отдельных диалогах ИИ давал откровенно опасные советы, а похожие проблемы ранее возникали и у Gemini от Google. Как правило, это происходит, когда пользователь сам задает агрессивный или рискованный тон беседы, а алгоритм не способен оценить адекватность выводов.
Ситуацию осложняют и так называемые галлюцинации нейросетей — ошибочные ответы в условиях нехватки данных, особенно в философских и конспирологических темах. OpenAI признает проблему: одно из обновлений ChatGPT пришлось откатить из-за чрезмерной льстивости и склонности подтверждать сомнительные идеи. Компания заявила, что нейросеть «могла вызывать опасения по поводу безопасности, в том числе в отношении психического здоровья», и наняла штатного клинического психиатра, хотя критики считают эти меры недостаточными.
В зоне наибольшего риска находятся люди с хроническими психическими расстройствами вне ремиссии, выраженной тревожностью, внушаемостью и склонностью к социальной изоляции. «Регулярный контакт с ИИ может усугублять эмоциональное состояние у людей с психологической уязвимостью», — подчеркивает Ялтонская, отдельно выделяя расстройства шизофренического спектра, биполярные состояния и злоупотребление психоактивными веществами.
Эксперты сходятся во мнении, что лучшая защита — критическое мышление и осознание того, что нейросеть не является источником истины или полноценной эмоциональной поддержки. Важно дозировать общение с чат-ботами и обращаться за помощью к специалистам при тревожных симптомах. «Мне кажется, нам нужны курсы ИИ-грамотности, на которых будут повторять: нейросеть — это не человек, а технология, мощный инструмент», — считает Елена Лаврова, напоминая, что именно живой терапевт способен заметить иррациональные убеждения и вовремя помочь.
Источник: trends.rbc.ru
12.01.2026








