2. Если мы обеспечим компьютер эвристическим алгоритмом и подождем, пока он выработает стратегию, то обнаружим, что компьютер создал стратегию, превышающую наше понимание. Такое вполне возможно, поскольку компьютер осуществляет свои пробные шаги значительно быстрее, систематичнее и точнее, чем можем мы с Вами, без остановки на развлечения и отдых и не забывает результатов. Это похоже на человека, постоянно играющего в шахматы и запоминающего все, чему он научился в каждой партии. Можно предполагать, что он обыграет такого любителя, как мы с Вами.
3. Но если так, то пришло время признать смысл, в силу которого человек изобрел машину, "более умную", чем он сам. Такая мысль неприятна, даже, тревожна и кажется самоудовлетворенному человеку несерьезной на том основании, что "мы указали машине, что ей делать". Но поразмышляйте над этим. Если машина вырабатывает стратегию, лучшую, чем можем сообразить мы, и если мы не можем понять, почему она лучше, хотя и признаем это, то слабым утешением служит то, что мы научили ее эвристическим трюкам с помощью алгоритма. Учитель Эйнштейна в начальной школе был точно в таком же положении. (Над последними двумя фразами стоит поразмыслить.)
4. Утверждение, что "компьютер может делать только то, что мы ему приказали", верно, но весьма обманчиво. Этим предполагается, что мы должны оставаться слабоумными рабами наших изобретений. Верно, мы приказали компьютерам учиться, предоставляя им тренировочный алгоритм, но они учатся быстрее, эффективнее нас и должны превзойти наши возможности в создании эвристического управления.
5. Заявление, что результат деятельности компьютера настолько хорош, насколько хорош ввод, суммирован в поговорке garbage in , garbage out — мусор на входе — мусор на выходе, и справедливо для алгоритмов, определяющих алгоритм, но не для алгоритмов, определяющих эвристику. Дело в том, что легче указать (алгоритмически) компьютеру поставить под
6. Механизм, который мы используем в таком случае, представляет собой давно известный сервомеханизм, о котором говорилось раньше. Здесь цепь обратной связи корректирует ошибку с помощью сравнения действительного положения с идеальным. Эта разница измерима, но не в смысле выходных данных, преобразованных с помощью функции преобразования, а в смысле способности системы в целом улучшить результат ее деятельности, измеряемый на другом языке. Это язык, на котором мы указываем на необходимость увеличить или уменьшить значение результата, чего замкнутая система сама не может знать. Например, если результатом измерения системы является уровень прибыли, а система включает эвристический элемент, который допускает колебания прибыли, и она обучена тому, как ее уменьшить или увеличить, то, значит, ей необходимо "сказать", что большая прибыль лучше, а меньшая хуже. Сама по себе она может научиться лишь узнавать, какие жизненные события увеличивают прибыль, а какие ее уменьшают.
7. Кроме того, обратная связь сервомеханизма осуществляется не по заранее заданной функции преобразования. Она осуществляется благодаря
8. Хотя пп. 6 и 7 позволяют лучше понять роль сервомеханизма, но они не меняют математических зависимостей, определяющих его устойчивость. Поэтому сохраняет силу вывод (см. гл. 2), что обратная связь становится главным фактором работы системы. Все зависит от критерия на другом языке (см. выше п. 6), позволяющем системе решить, чему ей учиться, а чему нет.