В 1975 г. вышла знаменитая книга ученого Джона Холланда (1929–2015) «Адаптация в естественных и искусственных системах». В ней описан генетический алгоритм, способный решать задачи методами, подсказанными биологией, такими как отбор, мутация и кроссинговер (рекомбинация). Используя генетический алгоритм, люди не программируют решение напрямую: оно появляется в ходе смоделированных процессов конкуренции, совершенствования и эволюции.
Обычно алгоритм начинает работу со стартовой выборки случайных решений или программ-кандидатов. Особая
Ученые не всегда способны разобраться, каким образом генетические алгоритмы приходят к действенным решениям. По словам бывшего инженера НАСА Джейсона Лона, эффективность алгоритмов сполна компенсирует этот недостаток: «Если я оптимизирую антенну с помощью эволюционных алгоритмов, я лишь с 50-процентной вероятностью могу объяснить их решение. Но результаты налицо – а нам, как инженерам, важен результат».
К сожалению, генетический алгоритм может «застрять» в области достаточно хороших решений (так называемый
СМ. ТАКЖЕ Машинное творчество (1821), Машинное обучение (1959),
Антенна космического аппарата НАСА, конструкция которой была предложена эволюционной компьютерной программой. Такая форма антенны обеспечивает наилучшие диаграммы направленности. Программа начинает работу со случайных конструкций антенн и совершенствует их в процессе «эволюции».
Этика искусственного интеллекта. 1976
На протяжении нескольких десятилетий обыватели и эксперты выражают беспокойство по поводу возможных угроз, которые ИИ несет человеческим профессиям, безопасности, достоинству, неприкосновенности частной жизни и многому другому. Например, информатик Джозеф Вейценбаум (1923–2008) в своей книге 1976 г. «Возможности вычислительных машин и человеческий разум» писал, что ИИ не следует использовать для замены людей в тех профессиях, которые требуют человеческого понимания, любви, сочувствия и заботы (это относится, например, к врачам и судьям). Вейценбаум считал, что, хотя ИИ может быть справедливее и эффективнее людей, которые порой бывают необъективны и устают на работе, не стоит чрезмерно полагаться на него, поскольку это разрушит человеческие ценности и мораль: ведь мы постепенно начнем ощущать себя бесчувственными компьютеризованными аппаратами.
Ученые уже указывали на проблемы конфиденциальности после тестирования ИИ-технологий, которые все точнее определяют национальность, расу и сексуальную ориентацию людей по именам и фотографиям с сайтов знакомств. Кроме того, многих беспокоит применение в области уголовного правосудия алгоритмов, которые определяют, кто выйдет из тюрьмы под залог или получит условно-досрочное освобождение, на основании доступных данных. В сфере беспилотных автомобилей этические соображения придется закладывать в логику транспортного средства – например, чтобы оно могло решить, спасать ли пассажира или пешехода, если авария неизбежна и выжить сможет только один из них. Конечно, существует и другая, не менее важная этическая проблема: из-за экспансии ИИ могут лишиться работы водители грузовиков и представители других рабочих профессий.
В будущем придется следить за ИИ-технологиями, чтобы те не совершали незаконных или аморальных действий, свойственных людям. Ведь ИИ тоже, вероятно, будут способны устраивать травлю в интернете, выдавать себя за близких нам людей, заниматься биржевыми махинациями и даже убивать (например, с помощью автономного оружия). В каких случаях нужно требовать от ИИ-технологий сообщать, что они не являются людьми? Если роботы, притворяясь людьми, станут лучшими сиделками и компаньонами, должны ли они раскрывать свою «нечеловеческую» сущность?
СМ. ТАКЖЕ «Метрополис» (1927), Три закона робототехники Азимова (1942), Смертоносные боевые роботы (1942), Психотерапевт