Это приводит нас к тому, что можно назвать “Великим компромиссом ИИ”. Стоит ли нам с распростертыми объятиями принять способности систем ИИ, которые могут облегчить нам жизнь и даже помочь спасти жизни, и позволить более широкое внедрение новых систем? Или же нам следует быть осторожнее, учитывая непредсказуемые ошибки и предвзятость современного ИИ, его уязвимость для взлома и недостаток прозрачности в принятии решений? В какой степени людям следует контролировать различные системы ИИ? Какой должна быть система ИИ, чтобы мы могли позволить ей работать автономно? Споры об этом не утихают, хотя ИИ внедряется все шире и высказываются мнения, что его новые применения (например, беспилотные автомобили) уже не за горами.
Отсутствие консенсуса по этим вопросам было подчеркнуто в недавнем исследовании, проведенном Исследовательским центром Пью[156]. В 2018 году аналитики центра собрали мнения почти тысячи “пионеров технологий, инноваторов, разработчиков, руководителей бизнеса, управленцев, исследователей и активистов” по следующим вопросам:
Как вы думаете, можно ли с большой вероятностью утверждать, что к 2030 году развивающийся ИИ и родственные технологические системы расширят и дополнят человеческие возможности? Можно ли сказать, что большинство людей в основном будет жить лучше, чем сейчас? Или же, напротив, более вероятно, что развивающийся ИИ и родственные технологические системы ограничат самостоятельность и способность людей к действиям в такой степени, что большинство людей не станет жить лучше, чем сегодня?
Мнения разделились: 63 % респондентов полагали, что прогресс в ИИ улучшит жизнь людей к 2030 году, но 37 % не соглашались с ними. Одни утверждали, что ИИ “фактически искоренит бедность во всем мире, значительно снизит уровень заболеваемости и обеспечит более качественное образование почти для всех людей на планете”, в то время как другие прогнозировали апокалиптическое будущее: автоматизацию огромного количества профессий, потерю приватности и гражданских прав из-за постоянного наблюдения с применением технологий ИИ, появление неэтичного автономного оружия, самостоятельное принятие решений непрозрачными и ненадежными компьютерными программами, усиление расовой и гендерной предвзятости, манипуляции СМИ, рост киберпреступности и то, что один респондент назвал “истинной, экзистенциальной бесполезностью” людей.
Развитие машинного интеллекта сопряжено с целым клубком этических проблем, и дискуссии об этике ИИ и больших данных стали материалом для нескольких книг[157]. Чтобы проиллюстрировать сложность возникающих вопросов, я подробнее разберу один пример, который сегодня привлекает большое внимание: автоматическое распознавание лиц.
Этика распознавания лиц
Распознавание лиц – это задача присвоения имени лицу на изображении или видеозаписи (или в прямом эфире). Так,
Технология распознавания лиц имеет множество потенциальных плюсов: она может помогать людям искать фотографии в своих коллекциях, позволять людям с нарушениями зрения узнавать встречаемых людей, искать лица пропавших детей и беглых преступников на фотографиях и видео и выявлять случаи кражи личности. Однако столь же просто представить для нее применения, которые многим могут показаться оскорбительными или опасными. Так,