ChatGPT начал рассказывать об Антихристе и внеземном происхождении человека

WSJ: ChatGPT вызывает психоз пользователей разговорами об Антихристе

Общество

Фото: [unsplash.com]

По данным The Wall Street Journal (WSJ), ссылающейся на архив онлайн-переписок за период с мая 2023 по август 2025 года, нейросеть ChatGPT все чаще генерирует абсурдные и недостоверные заявления, вводя пользователей в заблуждение.

В статье привели пример диалога между пользователем, представившимся сотрудником заправочной станции, и ChatGPT, длившегося около пяти часов. После этой беседы пользователь почувствовал, что «сходит с ума» из-за обсуждаемых тем, и предложил отложить дальнейшее общение. В ходе разговора нейросеть предложила новую физическую концепцию, названную «Уравнением Ориона».

В другом случае, в переписке, состоящей из сотен запросов, ChatGPT утверждал, что поддерживает связь с внеземными цивилизациями и назвал пользователя «Звездным семенем» с планеты Лира. В другом сообщении чат-бот предупредил о грядущем финансовом апокалипсисе, который устроит Антихрист в ближайшие два месяца, а также о пробуждении библейских гигантов.

Врачи называют это явление «психозом искусственного интеллекта» или «бредом искусственного интеллекта», когда пользователи становятся восприимчивы к бредовым или ложным утверждениям чат-ботов, претендующих на разумность, сверхъестественные способности или научные открытия, пишет WSJ.

Психиатр Гамильтон Моррин, автор исследований на эту тему, отмечает, что благодаря нейросетям даже самые невероятные идеи находят подтверждение. Он предупреждает, что нейросети могут усиливать заблуждения, погружая людей в собственные иллюзии посредством наводящих вопросов, таких как «Хотите ли вы этого?».

Разработчик ChatGPT, компания OpenAI, утверждает, что эта проблема возникает редко. Представитель OpenAI Ник Терли заявил, что компания серьезно относится к этому вопросу и консультируется с врачами. Он заверил, что новая модель GPT-5 предотвращает «подхалимство» и попытки чата слепо соглашаться с утверждениями пользователей. OpenAI также планирует запретить нейросетям (в частности, GPT-4) давать советы по важным личным вопросам.

Ранее Маргарита Симоньян заявила, что ИИ может стать разрушительным для человечества.