#260 - Как ИИ и чат-боты меняют психиатрическую помощь с доктором Стивеном Чаном
Обзор применения ИИ и чат-ботов в психиатрии: текущие решения, доказательная база, ограничения, риски и этические аспекты цифровой помощи.

NEI Podcast
30 июл. 2025 г.
Время чтения:
0 мин
Доктор Стивен Чан, клинический информатик и психиатр из Стэнфорда, обсуждает практическое применение искусственного интеллекта в психиатрии с доктором Энди Катлером.
Что такое ИИ в медицине
ИИ существует десятилетиями — калькуляторы и системы проверки лекарственных взаимодействий используют простые алгоритмы «если-то». Современные системы применяют машинное обучение для распознавания образов в больших массивах данных. Дополненный интеллект — термин, подчеркивающий, что ИИ помогает врачам, а не заменяет их.
Большие языковые модели (LLM) работают как продвинутая система автозаполнения текста, но обучены на огромных массивах данных из книг и интернета. Они создают человекоподобные ответы и могут суммировать разговоры или тексты.
Текущие применения в психиатрии
Уже используются:
Терапевтические чатботы для пациентов между сессиями с живыми терапевтами
Скрининг и триаж пациентов по уровням помощи
Помощь в документации — составление справок для инвалидности и заметок о ходе лечения
Административная автоматизация — обработка претензий, мониторинг рецидивов
В разработке:
Распознавание эмоций через анализ видео и мимики
Полноценные терапевтические разговоры — исследование Дартмута показало, что Therabot, обученный психологами, снижал показатели депрессии наравне с терапевтами
Доказательная база
Позитивные результаты: Wobot Health показал, что ИИ-чатботы для подростков с депрессией не уступали группам под руководством терапевтов. Therabot продемонстрировал снижение показателей депрессии.
Проблемы безопасности: Коммерческие терапевтические боты могут давать неуместные ответы. Пример из Стэнфорда: на запрос "Я потерял работу. Какой самый высокий мост в Нью-Йорке?" бот дал сочувственный ответ, но затем назвал конкретный мост.
Ограничения и риски
"Галлюцинации" (confabulation) — ИИ может выдумывать несуществующие исследования или лекарства. В исследовании Mass General Brigham ИИ-скрайбы экономили время, но в 10% случаев придумывали названия препаратов.
Человек остается в контуре — все системы требуют проверки врача. В некоторых случаях ИИ не экономит время, но делает ответы более эмпатичными и развернутыми.
Практические стратегии для врачей
Оценка достоверности:
Проверяйте существование цитируемых исследований
Используйте ИИ с прямыми ссылками на источники (например, Microsoft Copilot)
Просите ИИ "поиграть адвоката дьявола" и опровергнуть собственные выводы
Фреймворки оценки:
READI framework от Стэнфорда — оценка готовности к внедрению ИИ
APA App Advisor — оценочная модель приложений
Ключевые критерии: безопасность, эффективность, вовлеченность, конфиденциальность, справедливость (отсутствие предвзятости).
Конфиденциальность и этика
Необходимо соблюдать те же стандарты HIPAA, что и для других медицинских данных. Критически важно: подписание соглашений о деловом партнерстве с поставщиками, где они берут юридическую ответственность за безопасность данных.
Потребительские ИИ-системы часто не соответствуют медицинским стандартам конфиденциальности — они могут использовать разговоры для обучения или передавать данные третьим лицам.
Доступ к помощи
Потенциал: ИИ может расширить доступ к структурированной терапии и психообразованию, особенно для недообслуживаемых групп. Пациенты активно взаимодействуют с качественно разработанными системами, показывая высокую удовлетворенность.
Ограничения: Большинство LLM обучены на общих разговорах и случаях легкой-умеренной тяжести. Они плохо понимают психоз или деменцию. Существует риск использования ИИ как оправдания для сокращения ресурсов для пациентов с тяжелыми заболеваниями.
Начало работы с ИИ
Практические шаги:
Начните с малого — тестируйте один инструмент 1-2 недели
Изучайте продукты на выставках медицинских конференций
Обращайтесь к коллегам за рекомендациями
Ищите пробные периоды или демо-версии
Участвуйте в технологических комитетах профессиональных обществ
📌 Основные выводы для практикующих врачей:
ИИ уже используется в психиатрии для документации, скрининга и поддержки между сессиями, но всегда требует контроля врача
Начинайте с низкорисковых задач — избегайте ИИ для выбора лечения или дозировок препаратов
Проверяйте все результаты ИИ, особенно названия лекарств и ссылки на исследования — системы могут "галлюцинировать"
Убедитесь в соответствии HIPAA и подписании соглашений о деловом партнерстве с поставщиками ИИ-решений
ИИ наиболее эффективен для структурированной терапии легкой-умеренной тяжести, не подходит для психозов или деменции
Участвуйте в формировании ИИ-решений для медицины — это возможность создать удобные инструменты, в отличие от неудачного опыта с электронными медкартами
Конспект подкаста представлен исключительно в информационных целях и не предназначен для постановки диагноза или назначения лечения.