Ответ таков: (а) шанс, что следующий шар будет белым, равен (n +1)/(m +2), (б) шанс, что мы выбрали сумку, в которой все шары белые, равен (m +1)/(n +1). Этот правильный результат имеет непосредственную интерпретацию на основе конечно-частотной теории. Но Лаплас делает вывод, что если m членов А оказались членами В, то шанс, что следующий А будет равен В, равен (m+1)/(m +2), и что шанс, что все А суть В, равен (m +1)/(n +1). Он получает этот результат с помощью допущения, что при данном числе n объектов, о которых мы не знаем ничего, вероятности, что 0, 1, 2, …, n из этих объектов суть B, все равны. Это, конечно, является абсурдным допущением. Если мы заменим его несколько менее абсурдным допущением, что каждый из этих объектов имеет равный шанс быть или не быть В, то шанс, что следующий А будет В, остается равным 1/2, как бы много А ни оказались B.
Даже если бы его доказательство было принято, общая индукция остается невероятной, если n гораздо больше, чем m, хотя частная индукция может быть в высокой степени вероятной. В действительности же, однако, его доказательство является только историческим раритетом.
Кейнс в своей книге «Трактат о вероятности» сделал наилучшее, что только может быть сделано для индукции на чисто математической основе, и решил, что она неадекватна. Его результат следующий.
Пусть g будет обобщение, х1, x2; … — наблюденные случаи, благоприятные для обобщения, и h — общие обстоятельства, поскольку они относятся к делу.
Допустим
и так далее
Пусть
Таким образом, Pn есть вероятность общей индукции после n благоприятных случаев. Напишем д вместо отрицания д и P0 вместо g/h, то есть априорной вероятности обобщения. Тогда
По мере того как n увеличивается, эта дробь стремится к 1 как пределу, если
стремится к нулю как пределу; а это случится, если имеются конечные количества e и j такие, что для всех достаточно больших r
Рассмотрим эти два условия. Первое говорит, что имеется количество 1 е, меньшее, чем 1, такое, что если обобщение ложно, то вероятность того, что следующий случай будет благоприятным, после определенного числа благоприятных случаев будет всегда меньше, чем это количество. Рассмотрим в качестве примера его ошибочности обобщение «все числа суть непростые». По мере того как мы движемся по ряду чисел, простые числа становятся более редкими, и шанс, что следующее число после г непростых будет само непростое, возрастает и стремится к достоверности как пределу, если г удерживается постоянным. Это условие, следовательно, может оказаться недостаточным.
Но второе условие, что д должно еще до начала индукции иметь вероятность, большую, чем какая-либо конечная вероятность, гораздо труднее. В общем трудно найти какой-либо способ оценки этой вероятности. Какова была бы вероятность предложения «Все лебеди белые» для человека, который никогда не видел лебедя или ничего не слышал о цвете лебедей? Такие вопросы и темны и неопределенны, и Кейнс признает, что они делают его результат неудовлетворительным. Я вернусь к этому вопросу в главе II части шестой. Имеется одно простое предположение, которое способно дать ту конечную вероятность, которой хочет Кейнс. Предположим, что число вещей во вселенной конечно, скажем N. Пусть бета будет классом, состоящим из n вещей, и пусть а будет произвольным набором m вещей. Тогда число возможных альфа будет
а число тех, которые содержатся в, бета, будет
Следовательно, шанс, что все а суть р, равен
что является конечным. Это значит, что каждое обобщение, в отношении которого мы не имеем свидетельства, имеет конечный шанс быть истинным.
Я боюсь, однако, что если N такое большое, как полагал Эддингтон, то число благоприятных случаев, необходимых для того, чтобы сделать индуктивное обобщение вероятным в любой высокой степени, намного превосходило бы то, которое является практически достижимым. Следовательно, этот способ избежания трудностей, будучи блестящим в теории, не может служить для оправдания научной практики.
Индукция в развитых науках действует по системе, несколько отличающейся от простого перечисления. Прежде всего в науках имеется совокупность наблюденных фактов, затем совместимая со всеми фактами общая теория и затем выводы из теории, которые последующее наблюдение или подтверждает, или отвергает. Доказательство здесь зависит от принципа обратной вероятности. Пусть p будет общей теорией, h — ранее известным данным и q — новым экспериментальным данным, относящимся к р. Тогда
В случае, имеющем наибольшее значение, q вытекает из p и h, так что q/ph = 1. В этом случае, следовательно,
Из этого следует, что если q/h очень мало, то верификация q сильно повышает вероятность P. Это, однако, не имеет тех следствий, на которые можно было бы надеяться. Поставив «p» вместо «не-p», мы имеем
fq/h = pq/h + pq/h = p/h + pq/h,
потому что при данном h, р имплицирует q. Таким образом, если
то мы имеем
Это будет высокой вероятностью, если у мало. Два обстоятельства могут сделать у малым: (1) если p/h велико;