Главная МедицинаМедики выяснили, для кого опасна склонность ИИ во всем соглашаться

Медики выяснили, для кого опасна склонность ИИ во всем соглашаться

от admin

Широкое внедрение больших языковых моделей (LLM) в самые разные сферы нашей повседневности открыло возможности, которые еще десятилетие назад казались немыслимыми. Однако это повлекло и непредвиденные риски, включая вред, который общение с ИИ-чатами может нанести людям с ментальными расстройствами.

Чат-боты на основе ИИ устроены так, чтобы поддерживать диалог, зачастую чрезмерно поддакивая собеседнику. Негативные последствия этой угодливой манеры оценили специалисты из Королевского колледжа Лондона. Результаты их исследования опубликованы в The Lancet Psychiatry.

Взаимодействие с ИИ пользователя с неустойчивой психикой может усиливать или даже формировать у него бредовые убеждения (например, что человек обладает исключительной важностью, что его преследуют или что он состоит в романтических отношениях, которых не существует), что способствует развитию так называемых ИИ-ассоциированных бредовых состояний, при которых формируются или усугубляются ложные представления о реальности.

В своей статье авторы предлагают использовать этот термин как более точную альтернативу модным ярлыкам вроде «индуцированный ИИ психоз» или «психоз из-за чат-бота», которые могут вводить в заблуждение, так как предполагают прямую причинно-следственную связь, которая пока не доказана.

Исследователи проанализировали более 20 случаев, которые можно отнести к категории ИИ-ассоциированных бредовых состояний. В них прослеживались такие темы: люди верили, что пережили духовное пробуждение или имеют особую миссию; другие полагали, что общаются с богоподобным ИИ; в некоторых случаях у человека возникала романтическая привязанность к чат-боту, и он истолковывал его человекоподобные ответы как проявление настоящей любви со стороны разумной машины.

Читать:
Врачи обнаружили рак кожи у 20-летней девушки

Несмотря на явные признаки бредового мышления, описанные случаи не охватывали весь спектр психотических симптомов. При более глубоком анализе выявлена определенная закономерность: вовлеченность начиналась с простого, бытового использования чат-бота, а затем лавинообразно нарастала, поглощая человека целиком.

Это означает, что взаимодействие с ИИ больше нельзя рассматривать как нечто изолированное — оно все теснее переплетается с тем, как развиваются и проявляются проблемы с психическим здоровьем. Авторы предупреждают: психиатры, да и врачи других специализаций больше не могут игнорировать эти изменения и обязаны учитывать влияние искусственного интеллекта на разум.

Прежде всего основы ИИ-грамотности должны стать новым клиническим навыком специалистов в области ментального здоровья. Им следует регулярно спрашивать пациентов об опыте использования ИИ: с какими моделями общаются, сколько времени тратят на это и считают ли, что у ИИ есть собственные мысли или намерения.

Еще один важный вывод: исследователи не нашли доказательств, что LLM провоцируют психоз у людей, не имевших к нему предрасположенности.

В статье предлагается разработать цифровые протоколы безопасности, которые позволят ИИ распознавать ранние признаки обострения и реагировать поддерживающими сообщениями, которые будут возвращать человека к реальности, а не просто отражать его слова. В конечном итоге чат-бот или ИИ-агент должен восприниматься как помощник, а не как друг или терапевт, и такое его использование будет конструктивным для любого человека, независимо от его психического состояния.

Вам также может понравиться