Сложность психических расстройств, недостаток больших репрезентативных наборов данных, вопросы этики, прозрачности и ответственности при применении "черных ящиков" ИИ требуют тщательной проработки [47, 52, 72, 111]. Для успешного внедрения ИИ в психиатрическую практику необходим комплексный подход, включающий междисциплинарное сотрудничество специалистов, разработку методологических стандартов, а также решение проблем конфиденциальности, предвзятости и интерпретируемости моделей [7, 47, 111]. Для повышения качества исследований, использующих методы МО в психиатрии, Tandon & Tandon предлагают контрольный список критериев для рецензирования публикаций в этой области [107]. Авторы подчеркивают важность соблюдения высоких стандартов научной строгости при применении этих методов, которые существенно отличаются от традиционных статистических подходов. Graham et al. анализируют применение ИИ в области психического здоровья и психических заболеваний, авторы отмечают, что, хотя исследования демонстрируют высокий потенциал ИИ, большинство из них находятся на ранних концептуальных стадиях [58]. Для эффективного клинического внедрения ИИ требуется работа по преодолению разрыва между исследованиями и практикой. Для успешного клинического применения «вычислительной психиатрии» Paulus et al. предлагают поэтапный план развития, аналогичный процессу разработки лекарственных средств [89]. Важно интегрировать в ИИ-системы принципы "искусственной мудрости" – способность принимать сострадательные и этичные решения [47, 72]. Одна из ключевых проблем использования ИИ в медицине в целом, и в психиатрии в частности, связана с "черным ящиком" – непрозрачностью внутренних механизмов работы моделей машинного обучения, особенно основанных на глубоком обучении [105]. Это затрудняет понимание врачами логики принятия решений ИИ-системами и снижает доверие к ним. Объяснимость ИИ – фундаментальный вопрос. Для решения этой проблемы Starke и Poppe [105] предлагают использовать разработанное К. Ясперсом разграничение "объяснения" и "понимания" психопатологических феноменов. Объяснение связано с выявлением общих закономерностей, а понимание – с постижением смысла конкретных явлений; применение этих двух подходов в комплексе может повысить объяснимость ИИ-моделей в медицине. Перспективным направлением развития ИИ является переход к третьему поколению, основанному на интеграции символического и коннекционистского подходов [128]. Это позволит создать более объяснимые, устойчивые и безопасные ИИ-системы. Кроме того, для ускорения прогресса в области ИИ авторы Zador et al. [127] предлагают использовать достижения нейронаук. Понимание принципов работы мозга и нервной системы может помочь создать ИИ с более естественным интеллектом и сравнимыми с человеком способностями. Предлагается сосредоточиться на изучении базовых сенсомоторных функций человека. Подоплелова Е.С. анализирует методы ИИ, применяемые для решения задач в психиатрии. Основными направлениями являются деидентификация клинических записей, классификация тяжести симптомов и прогнозирование развития психоза [14].
Несмотря на многообещающие перспективы, применение ИИ в психиатрии связано со значительными ограничениями и вызовами [33, 83, 88, 96]. К ним относятся: 1. Технические проблемы: нехватка качественных данных, непрозрачность "черного ящика" в моделях ИИ, сложности валидации [33, 83]. 2. Человеческие факторы: недостаток знаний об ИИ среди клиницистов, необходимость изменения рутинных рабочих процессов, возможность деквалификации специалистов [83, 88]. 3. Этические вопросы: проблемы ответственности, предвзятости, конфиденциальности данных, баланс между эффективностью и безопасностью [96, 81]. Pak et al. [88] отмечают обеспокоенность, что развитые ИИ-системы в перспективе могут заменить психиатров. Важной предпосылкой успешного внедрения ИИ в психиатрическую практику является формирование доверия пациентов и клиницистов к новыми технологиями [86]. Клиницисты должны выступать связующим звеном, способствуя принятию ИИ-систем пациентами. Для успешной интеграции ИИ в психиатрическую помощь необходимо последовательно решать проблемы, поддерживая баланс между эффективностью технологий и обеспечением безопасности, этичности и доверия со стороны пациентов и специалистов [81]. Sahoo et al. [98], Ayhan [23] отмечают, что ИИ может страдать от предвзятости алгоритмов, чрезмерного использования социальных сетей пациентами для самовыражения, авторы озабочены сокращением человеческого взаимодействия, юридическими и нормативными вопросами.