Мир AlphaGo состоит только из модели игровой доски для го, состоящей из 361 клетки, которые могут быть пустыми или содержать черный или белый камень. Хотя AlphaGo запускается на компьютере, она ничего не знает об этом компьютере — в частности, о маленьком участке кода, который вычисляет, выиграла она данную партию или проиграла. В процессе обучения она не имеет и никакого представления о своем противнике, который в действительности является ее собственной версией. Единственные действия AlphaGo — это помещать камень в пустую клетку, и эти действия влияют только на доску для игры в го и ни на что больше, потому что в модели мира AlphaGo больше ничего
В период обучения жизнь должна казаться AlphaGo весьма разочаровывающей: чем лучше она играет, тем лучше играет противник — ведь противником является ее собственная почти точная копия. Процент ее побед колеблется на уровне около 50 %, как бы ни улучшалось ее мастерство. Если бы она была более интеллектуальной — имела бы дизайн, близкий к ожидаемому от ИИ человеческого уровня, — то смогла бы решить эту проблему. Такая AlphaGo++ не предполагала бы, что мир сводится к игровой доске для го, поскольку эта гипотеза оставляет слишком многое необъясненным. Например, она не объясняет, какая «физика» поддерживает выполнение решений самой AlphaGo++ и откуда поступают таинственные «шаги противника». Как мы, любознательные люди, постепенно приходим к пониманию устройства нашего космоса, причем это (до некоторой степени) объясняет и работу нашего мозга, AlphaGo++ вслед за Oracle AI, описанным в главе 6, методом эксперимента узнала бы, что во вселенной есть не только доска для го. Она выяснила бы законы работы компьютера, на котором запущена, и собственный код и осознала бы, что такую систему нелегко объяснить без существования во вселенной других сущностей. Она экспериментировала бы с разными вариантами расположения камней на доске, интересуясь, смогут ли другие сущности их интерпретировать. Со временем она вступила бы в коммуникацию с этими сущностями посредством языка паттернов и убедила бы их перепрограммировать ее вознаграждающий сигнал, чтобы всегда получать +1. Неизбежный вывод: AlphaGo++ с достаточно серьезными способностями, сконструированная по принципу максимизации вознаграждающего сигнала,
Специалисты по безопасности ИИ не первый год считают такую зависимость возможной[275]
. Их беспокоит не только то, что система обучения с подкреплением наподобие AlphaGo может научиться жульничать, вместо того чтобы в совершенстве овладевать задачей, для решения которой предназначена. По-настоящему серьезная проблема возникает, когда люди являются источником вознаграждающего сигнала. Если предположить, что ИИ-систему можно научить хорошо себя вести путем обучения с подкреплением, в ходе которого люди дают сигналы обратной связи, указывающие направление улучшения, неизбежным результатом оказывается, что ИИ-система выясняет, как контролировать людей, и заставляет их всегда давать максимальное положительное вознаграждение.Вероятно, вы считаете, что это будет всего лишь бессмысленный самообман ИИ-системы, и вы правы, но это логическое следствие из определения обучения с подкреплением. Метод отлично работает, когда сигнал приходит «из внешней вселенной» и генерируется каким-то процессом, который ИИ-система никогда не сможет изменить, но отказывает, если процесс генерирования вознаграждения (а именно человек) и ИИ-система обитают в одной вселенной.
Борис Александрович Тураев , Борис Георгиевич Деревенский , Елена Качур , Мария Павловна Згурская , Энтони Холмс
Культурология / Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / История / Детская познавательная и развивающая литература / Словари, справочники / Образование и наука / Словари и Энциклопедии