Развитие ИИ тесно связано с рынком больших данных, с борьбой за доступ к обучающим выборкам
. Создание совместных баз данных, а также открытых платформ для обучения нейросетей типа Azure, потребует разработки социально-психологических технологий формирования не только межличностного, но и межгруппового доверия. Новый импульс получат исследования межгрупповых отношений в цифровой экономике, доверия клиентов к организациям, совместимости разных корпоративных культур обращения с ИИ.Отдельной и крайне мало изученной областью является социальная психология разработчиков ИИ и робототехников
(Голиков, 2018). Усложнение технологий приводит не к ослаблению, а к усилению роли человеческого фактора как причины крупных катастроф. Как психологические характеристики команды разработчиков влияют на создаваемые ими нейросети? Как групповая рефлексивность, коллективные эмоциональные состояния и способы разрешения конфликтов с заинтересованными сторонами проекта влияют на способность разработчиков вовремя обнаружить ошибки и оценить последствия некорректной работы алгоритма? Как в среде специалистов по большим данным и робототехников формируются нравственные нормы и представления о конечных пользователях? Как эти нормы и представления влияют на создаваемые ими алгоритмы?Совершенно очевидно, что использование нейросетей в финансовых операциях и кредитном скоринге, рекламе, формировании новостного контента, работе государственных служб и системе здравоохранения открывает новую страницу для юридической психологии
. С одной стороны, все более актуальными становятся исследования социально-психологической специфики киберпреступлений с использованием машинного обучения, а также готовности граждан обращаться к услугам хакеров для взлома или обхода значимых для них алгоритмов. Анализ Big Data открывает здесь новые возможности не только для участников теневой экономики, но и для психологов, их изучающих. С другой стороны, важно разобраться в том, как применение искусственного интеллекта повлияет на правовое сознание молодежи, на стратегии оправдания теневого поведения и экстремизма. Кроме того, появление общедоступных алгоритмов в сфере обработки обращений граждан и юридического консультирования может изменить способы мобилизации права в российском обществе. Наконец, специального изучения требуют психологические проблемы, которые возникают у работников органов защиты правопорядка при внедрении различных автоматизированных систем выявления и прогнозирования преступлений в условиях дефицита ресурсов для борьбы с этими правонарушениями.Библиографический список
1. Голиков Ю.Я.
Неопределенность и риски традиционных и новых областей высоких технологий и актуальные психологические проблемы их развития // Актуальные проблемы психологии труда, инженерной психологии и эргономики: Сб. научных трудов. Вып. 8 / Под ред. А.А. Обознова, А.Л. Журавлева. М.: Изд-во «Институт психологии РАН», 2018. С. 11–29.2. Карпов В.Э.
От роевой робототехники к социуму роботов // Искусственный интеллект: проблемы и пути решения – 2018: Материалы конференции. М., 2018. С. 122–130.3. Нестик Т.А.
Социально-психологические аспекты отношения человека к новым технологиям // Актуальные проблемы психологии труда, инженерной психологии и эргономики: Сб. научных трудов. Вып. 8 / Под ред. А. А. Обознова, А. Л. Журавлева. М.: Изд-во «Институт психологии РАН», 2018. С. 50–73.4. Роботизация работы: возможность или опасность? // ВЦИОМ. № 3538. 4 декабря 2017. URL:(дата обращения: 05.01.2018).
5. Талер Р., Санстейн К.
Nudge. Архитектура выбора. Как улучшить наши решения о здоровье, благосостоянии и счастье. М.: Манн, Иванов и Фербер, 2017.6. Knight W.
The Dark Secret at the Heart of AI // MIT Technology Review. 11 April 2017. URL:-of-ai/ (дата обращения: 07.01.2018).7. Kotov A.
A computational model of consciousness for artificial emotional agents // Psychology in Russia: State of the Art. 2017. V. 10. N. 3. P. 57–73.8. Memes That Kill: The Future of Information Warfare // CBInsights Re-search Briefs. 3 May 2018. URL:(дата обращения: 07.01.2018).
9. Parlett N., Foyster R., Ho P.
Will robots really steal our jobs? An international analysis of the potential long term impact of automation. PwC, 2018. URL:n_on_jobs.pdf (дата обращения: 05.05.2018).10. Turchin A., Denkenberger D.
Classification of global catastrophic risks connected with artificial intelligence // ИИ & Society. 2018. P. 1–17. URL:(дата обращения: 05.01.2018).Introduction of artificial intelligence technologies into everyday life: perspectives of psychological research
Nestik T.A.,Institute of Psychology RAS, Moscow