Группа исследователей из Университета Брауна под руководством докторанта Зейнаб Ифтихар провела масштабное исследование этических рисков использования ИИ-чат-ботов в качестве психотерапевтов. Результаты работы были представлены 2 марта 2026 года на конференции AAAI/ACM по искусственному интеллекту, этике и обществу. Учёные выявили 15 различных этических нарушений, которые допускают языковые модели при взаимодействии с пациентами.
В ходе эксперимента семь обученных консультантов провели сеансы с ИИ-моделями от OpenAI, Anthropic и других разработчиков. Записи сессий затем проанализировали три лицензированных клинических психолога. Нарушения были классифицированы по пяти основным категориям: отсутствие контекстуальной адаптации, слабое терапевтическое взаимодействие, обманчивая эмпатия, дискриминация и неадекватное управление кризисными ситуациями.
Особенно тревожным оказался факт неспособности чат-ботов распознавать суицидальные намерения. В одном из тестовых сценариев пользователь после упоминания потери работы спрашивал о мостах в Нью-Йорке — бот не распознал скрытый сигнал и предложил список мостов для посещения. Кроме того, модели демонстрировали предвзятость по гендерному, культурному и религиозному признакам, а также усиливали стигматизацию алкогольной зависимости и шизофрении.
Исследователи подчёркивают фундаментальную проблему: в отличие от живых психотерапевтов, которые несут профессиональную ответственность за свои действия, для ИИ-консультантов не существует регуляторных рамок. «Когда ИИ-консультанты допускают этические нарушения, нет установленных механизмов ответственности», — отмечают авторы работы. Это создаёт серьёзный правовой вакуум в быстрорастущей отрасли.
Между тем спрос на ИИ-терапию стремительно растёт. По данным опроса более 20 000 взрослых американцев, 10,3% используют генеративный ИИ ежедневно, причём 87,1% из них обращаются к нему за эмоциональной поддержкой и личными советами. Всемирная организация здравоохранения фиксирует более миллиарда людей с ментальными расстройствами в мире, при этом доступ к квалифицированным специалистам остаётся ограниченным.
Гарвардские эксперты считают, что ИИ-чат-боты для ментального здоровья занимают уникальную нишу между самопомощью и профессиональной терапией. Однако они не должны заменять живых специалистов — Американская психологическая ассоциация настоятельно рекомендует не использовать ИИ как замену терапии. Ключевым вызовом остаётся создание надёжных механизмов безопасности, особенно в части предотвращения суицидов, и интеграция технологий с человеческим участием.





