Известно о нескольких случаях, когда преступники захватывали более миллиона компьютеров. Самый известный ботнет – Bredolab, куда входило более 30 млн компьютеров. Он был создан хакерской группой, которая зарабатывала на том, чтобы предоставлять взломанные компьютеры в аренду другим преступным организациям. На пике ботнет рассылал более 3 млрд зараженных электронных писем в день.
425
Интересно оценить, какую власть они сосредоточили в своих руках. В 1942 году страны “оси” (за исключением Японии) контролировали около 1,3 трлн долларов ВВП (в долларах 1990 года) (Harrison, 1998), что соответствовало примерно 30 % мирового ВВП (Maddison, 2010).
СССР занимал территорию площадью 22,4 млн квадратных километров, то есть 16 % суши на планете. Население Монгольской империи в период ее расцвета, когда у власти пребывал внук Чингисхана Хубилай, составляло 100 млн человек (Lee, 2009), что соответствовало примерно 25 % населения Земли (Roser et al., 2019).
Учитывая, в какой степени эти страны были ориентированы на войну, вероятно, на их долю приходилось даже больше военной мощи, чем показывают эти цифры, но дать объективную оценку этому сложнее.
426
Хороший исход мог бы наступить, например, если бы ИИ-система сама по себе стала достойной преемницей человечества, а создаваемое ею прекрасное будущее было бы именно таким, как надеялось человечество. Порой это называют причиной не беспокоиться о рисках неконтролируемого ИИ.
Хотя я считаю, что в этой идее что то есть, это вовсе не панацея. Как только мы всерьез воспримем идею, что в лучшем будущем, возможно, нам найдется замена, окажется, что не все такие замены одинаково хороши. И наделение какой либо группы программистов правом в одностороннем порядке запускать такую массовую замену человечества будет означать необходимость пройти через страшный процесс принятия решения, как передать эстафету. Более того, если мы полагаем, что ИИ-система сама может быть носителем моральных ценностей, возникает серьезная вероятность того, что такая система допустит возникновение мира с отрицательной ценностью или иным образом породит его, особенно если она будет разработана человечеством в период, когда нам столь мало известно о природе сознательного опыта.
427
Metz (2018).
428
Стюарт Рассел (2015): “Как пояснили Стив Омохундро, Ник Бустрём и другие ученые, в комбинации с растущими способностями систем принятия решений несовпадение ценностей может привести к проблемам – возможно, даже к таким проблемам, которые вызовут гибель вида, если машины окажутся способнее людей. Кое-кто утверждает, что в грядущие столетия риск для человечества немыслим, но эти люди, вероятно, забывают, что с момента, когда Резерфорд уверенно заявил о невозможности извлечения атомной энергии, до изобретения Силардом индуцированной нейронами ядерной цепной реакции прошло менее суток”.
Центр совместимого с человеком ИИ, основанный Расселом, стал одной из ведущих исследовательских организаций, где изучаются вопросы контроля ИИ. Книга Рассела “Совместимость” (2019) – революционное и прекрасно написанное введение в проблему создания безопасного общего искусственного интеллекта.
429
Шейн Легг, один из основателей и старший исследователь компании DeepMind, руководит в ней исследованиями безопасности ИИ. Когда в ходе интервью его спросили, какова вероятность вымирания человечества в течение года после разработки ОИИ, он сказал (Legg & Kruel, 2011): “Не знаю. Может, 5 %, может, 50 %. Вряд ли кто то в состоянии дать надежную оценку… На мой взгляд, это главный риск текущего столетия, а на втором месте с небольшим отрывом стоит появление искусственно созданного биологического патогена (хотя об этом я мало что знаю)”.
430
Алан Тьюринг (1951), один из изобретателей компьютера, стоявший у истоков исследования искусственного интеллекта: «…кажется вероятным, что машинное мышление, появившись, быстро превзойдет наши скромные способности. Вопроса о смерти машин даже не встанет, поскольку они смогут общаться друг с другом, чтобы оттачивать свой ум. Следовательно, на каком то этапе нам стоит ожидать, что машины захватят контроль, примерно как в романе Сэмюела Батлера “Едгин”».
Этот роман Сэмюела Батлера (1872) был написан на основе его эссе “Дарвин среди машин” (Butler, 1863), в котором, пожалуй, впервые рассматривается экзистенциальный риск, связанный с разумными машинами.
Опасениям Тьюринга вторил и его коллега-криптограф, видный статистик и пионер компьютерных наук И. Дж. Гуд (1959): “Как только будет создана достаточно хорошая машина… ее можно будет применить для создания еще более совершенной машины. На этом этапе явно случится «взрыв», все задачи науки и технологии будут переданы машинам, а людям больше не придется работать. Это может привести либо к утопии, либо к уничтожению рода человеческого в зависимости от того, как машины будут подходить к проблеме. Важно задать им цель служить людям”.