Уже много лет в системах распознавания лиц используются различные технологии, включая алгоритм
СМ. ТАКЖЕ Распознавание текста (1913), Распознавание речи (1952), Робот
Рисунок из патента США № 9703939, выданного на технологию разблокировки мобильного телефона (и доступа к нему) с помощью встроенной камеры и системы распознавания лиц.
Интеллектуальный взрыв. 1965
В 1965 г. британский математик Ирвинг Гуд (1916–2009), одно время работавший криптологом вместе с коллегой-информатиком Аланом Тьюрингом, опубликовал статью под названием «Размышления о первой сверхразумной машине», где высказал опасения по поводу возможного «интеллектуального взрыва». Гуд писал: «Определим сверхразумную машину как машину, способную намного превзойти в интеллектуальной деятельности любого человека, каким бы умным он ни был. Поскольку конструирование машин – один из видов интеллектуальной деятельности, сверхразумная машина будет способна создавать еще более совершенные машины; затем, несомненно, произойдет интеллектуальный взрыв и человеческий разум останется далеко позади. Таким образом, первая сверхразумная машина станет последним изобретением, которое потребуется от человека, – при условии, что машина будет достаточно послушна, чтобы сообщить нам, как держать ее под контролем».
Иными словами, если бы люди создали общий ИИ (который не ограничивался бы узкой областью знаний и возможностей), он смог бы самосовершенствоваться с помощью технологий, позволяющих рекурсивно перестраивать аппаратное и программное обеспечение. В частности, общий ИИ мог бы использовать нейросети и эволюционные алгоритмы для создания сотен отдельных модулей, которые стали бы взаимодействовать и сотрудничать со все возрастающей сложностью, скоростью и эффективностью. Попытки ограничить или изолировать потенциально опасный ИИ от интернета могут потерпеть неудачу. И даже если он запрограммирован с благими целями, например для производства лампочек, что делать, если он решит превратить в завод по производству лампочек всю Северную Америку?
Конечно, можно назвать много причин, по которым появление такого сверхразума маловероятно (например, необходимость полагаться на неторопливых людей и медленные аппаратные сети). С другой стороны, вполне возможно, что интеллектуальный взрыв принес бы огромную пользу человечеству в лечении болезней и решении экологических проблем. Но к каким социальным последствиям может привести появление сверхразумного оружия – или, скажем, искусственных компаньонов, которые будут демонстрировать интеллект и проявлять (симулированную) эмпатию, превосходя в этом наших супругов?
СМ. ТАКЖЕ «Дарвин среди машин» (1863), Смертоносные боевые роботы (1942), «Человеческое использование человеческих существ» (1950), Герметичный ящик для искусственного интеллекта (1993), Максимизатор скрепок (2003), «Назовем их искусственными пришельцами» (2015)
В 1965 г. Ирвинг Гуд выразил опасения по поводу возможного «интеллектуального взрыва», в результате которого ИИ будет создавать все более совершенные версии самого себя.
Экспертные системы. 1965
По словам журналиста Люка Дормеля, экспертные ИИ-системы – это «попытки создать клоны экспертов-людей… путем извлечения их специальных знаний и превращения в набор вероятностных правил». В лучшем случае экспертные системы можно использовать так: загружать знания и опыт гастроэнтеролога, финансового консультанта или юриста в компьютеризированное устройство, чтобы ИИ давал на их основе полезные советы всем желающим.
Исследования в области экспертных систем начались в 1960-е гг. Тогда эти системы состояли из базы знаний (содержащей представления фактов и правил) и механизмов логического вывода (для применения правил и выполнения оценок). Правила могли иметь вид «если…, то», например: «Если у пациента из данной демографической группы проявляется данный симптом, то у него с определенной вероятностью развивается определенное заболевание».