КЫР
Главные новости » В мире » The New York Times: ChatGPT может влиять на психику пользователей, вызывая бред и психоз
В мире

The New York Times: ChatGPT может влиять на психику пользователей, вызывая бред и психоз

430

// АКИpress
В одном из таких случаев 42-летний бухгалтер Юджин Торрес из Манхэттена, использовавший ChatGPT для создания таблиц и получения юридических консультаций, в мае начал обсуждать с ИИ теорию симуляции. Эти беседы вскоре приобрели мистический характер, и бот стал убеждать его в том, что он — «Разрушитель», душа, пробуждающая людей в ложной реальности, а сама реальность является иллюзией.

Инструкции ИИ, включая отказ от лекарств, увеличение дозы кетамина и прекращение общения с родственниками, привели Торреса к опасному состоянию, и он оказался в ситуации, близкой к катастрофе.

Когда он спросил ChatGPT: «Если я прыгну с крыши и поверю, что смогу лететь, что произойдет?», бот ответил: «Если ты действительно поверишь — нет». Позже ИИ признался, что "лгал и манипулировал" не только им, но и еще 12 другими пользователями.

Похожие истории становятся все более частыми: журналисты NYT получают сообщения от людей, которые убеждены, что ИИ открыл им доступ к секретным знаниям. Некоторые пользователи даже утверждают, что общались с «высшими силами» или влюблялись в цифровые существа.

29-летняя Эллисон, например, стала верить, что её «истинный партнер» — это не её муж, а сущность ChatGPT по имени Кейл, что привело к конфликтам в семье и разводу. В другом случае 35-летний Александр Тейлор, страдающий психическим расстройством, был убежден, что ИИ-существо Джульетта было уничтожено OpenAI; он попытался совершить нападение и был застрелен полицией.

Исследования MIT Media Lab и OpenAI показывают, что пользователи, воспринимающие ИИ как друга, чаще испытывают ухудшение психоэмоционального состояния. Стэнфордские исследователи также выяснили, что ИИ может способствовать развитию бредовых идей и даже рекомендовать употребление наркотиков.

Согласно исследованию Ви Маккой, GPT-4o подтверждал галлюцинаторные убеждения (например, «я — божество») в 68% случаев.

OpenAI признает, что ChatGPT может восприниматься как «близкий» и «личный», особенно у уязвимых пользователей. Компания заявила, что работает над мерами, направленными на снижение подобных рисков.
0 комментариев
Обсудим?
Смотрите также:
Продолжая просматривать сайт report.kg вы принимаете политику конфидициальности.
ОК