11.
Невольно возникает вопрос: почему мы,12.
Или попытаться создать такую систему мотивации, чтобы ИИ был индифферентен к замене целей; см.: [Armstrong 2010].13.
Мы опираемся на объяснения, данные Дэниелом Дьюи [Dewey 2011]. Использованы также идеи из работ: [Hutter 2005; Legg 2008; Yudkowsky 2001; Hay 2005].14.
Чтобы избежать ненужного усложнения, мы остановимся на агентах с детерминированным поведением, которые не дисконтируют будущее вознаграждение.15.
С математической точки зрения поведение агента можно формализовать при помощи16.
Дьюи предлагает следующее определение оптимальности для агента, обучающегося ценностям:Здесь
17.
Нужно заметить, что набор функций полезности18.
В более общем случае нужно обеспечить ИИ адекватным представлением условного распределения вероятностей