Это вопрос не только визуальной дискриминации. Следите за логикой. Военные привели мне замечательный пример: несколько морпехов зажали нескольких боевиков в проходе между домами и намеревались убить. Они прицелились и собрались застрелить боевиков. Затем они заметили, что боевики несут гроб, опустили оружие, сняли шлемы и уважительно дали им пройти. Потому что если бы они убили боевиков, то сами бы попали в серьезные неприятности. На похоронах не убивают людей. Робот бы просто их пристрелил. Возможно, вам удастся запрограммировать робота, чтобы он не стрелял в этих условиях, но тогда все боевики будут ходить с гробами.
Мы снова возвращаемся к вопросу уязвимости программного обеспечения. Если приходится жестко кодировать стандартную реакцию на непредсказуемое событие, то в долгосрочной перспективе результат будет нулевым. Либо условия в конечном итоге выйдут за пределы ожидаемого диапазона, либо в программирование будет вмешиваться человеческий фактор. Эмоциональный интеллект и способность присваивать значения различным элементам и условиям в собственном окружении в значительной степени поможет решить проблему. В частности, если разум способен присваивать значения не только себе, но и прочим участникам действия. Иными словами, если искусственный интеллект подает признаки теории сознания и способен проявлять эмпатию.
Может ли аналог эмоций сделать автономные машины для убийства приемлемыми для нас в будущем? Возможно, но следует надеяться, что ненадолго – с почти нулевой вероятностью. Армейское командование не захочет нести ответственность за приказ об уничтожении, исполнение которого они не контролируют полностью. Такой же объективной реальностью, как и эмоциональный искусственный интеллект, может стать и вопрос, насколько «человечны» его реакции и мыслительные процессы. Этот вопрос будет актуален и после того, как эмоциональный искусственный интеллект достигнет человеческого уровня.
Пока же нам остается ждать, вероятно, не одно десятилетие, пока у машин не появятся хотя бы зачатки настоящей эмпатии.
Системы адаптивного обучения только выиграют от использования технологий распознавания эмоций и смогут эффективнее добиваться своих целей.
Автономный комплекс вооружения функционирует отдельно от управляющего им человека. Автономность можно поддерживать несколько секунд или минут, но ее также можно поддерживать месяцами и годами. Теоретически комплекс может сохранять актуальность и после того, как конфликт будет исчерпан. Министерство обороны США выступает в защиту автономных комплексов вооружения, заявляя, что «однократно активизированный комплекс вооружения может выбирать и поражать цели без дальнейшего вмешательства управляющего им человека». Если вы считаете, что никто намеренно не оставит без контроля автономный комплекс вооружения длительного действия, вспомните о том, что по всему миру до сих пор зарыты в земле приблизительно 110 миллионов противопехотных мин. Хотя эти машины для убийства по определению не вполне автономны, у них полностью отсутствует эмпатия, и им совершенно безразлично, кого убивать. Они могут сохранять боеготовность на протяжении десятилетий, то и дело убивая и калеча людей, несмотря на то что война давно закончилась. А теперь представьте машину, способную выбирать цели, выслеживать и убивать тех, кто были врагами, но уже могут ими и не быть. Вот вам и готовый ночной кошмар.
Александр Александрович Воронин , Александр Григорьевич Воронин , Андрей Юрьевич Низовский , Марьяна Вадимовна Скуратовская , Николай Николаевич Николаев , Сергей Юрьевич Нечаев
Культурология / Альтернативные науки и научные теории / История / Эзотерика, эзотерическая литература / Образование и наука