• Это правило неприменимо к нескольким независимым событиям, которые должны произойти совместно. Тогда вероятность результата вычисляется путем перемножения вероятностей всех индивидуальных событий. Каждый дополнительный фактор снижает шансы на то, что все они произойдут определенным образом. При одном подбрасывании монеты шансы на выпадение орла и решки равны. Вероятность выпадения только орлов при подбрасывании двух монет составляет одну четвертую, трех монет – одну восьмую.
• Чем более точный результат вам нужен, тем меньше на это шансов. Например, получение наивысшего балла всеми участниками теста менее вероятно, чем их половиной, а это, в свою очередь, менее вероятно, чем получение наивысшего балла одним-единственным испытуемым.
• Аналогично конкретный сценарий всегда менее вероятен, чем общий, который охватывает конкретный в качестве частного случая. Например, меньше шансов, что случайно выбранный из толпы человек окажется владельцем синей машины, а не просто автовладельцем.
• Если какое-то событие кажется наблюдателю поразительным совпадением, то это еще не означает, что оно уникально. Выпадение двух шестерок при броске костей равновероятно с любой другой комбинацией, и совершенно не важно, что это событие привлекает больше внимания.
• Совпадения кажутся потрясающими только потому, что мы игнорируем бесчисленные повседневные события, которые нас не потрясли. На самом деле редкие и маловероятные вещи происходят постоянно.
Использование выборки
Индукция представляет собой процесс обобщения. Она движется от частного к общему, в связи с чем становится важным понятие выборки
{71}. Выборка включает несколько конкретных случаев, которые изучаются, чтобы на их основе сделать обобщающее заключение об универсальной черте, тенденции или закономерности.Если я изучаю поведение кошачьих, то могу использовать своего домашнего кота Бэзила в качестве олицетворения всех кошек вообще и построить индуктивный аргумент. Как вы оцениваете его силу?
Это не особенно сильный индуктивный аргумент, поскольку в моей выборке всего один кот. В исследованиях объем выборки принято обозначать буквой n
: запись n = 1{72} означает выборку из одного элемента, n = 100 – выборку из 100 элементов и т. д. Поскольку n = 1 – выборка наименьшего возможного объема, эта формула стала своего рода сокращенным обозначением того факта, что казус, описывающий один-единственный пример, почти наверняка является слабым аргументом.Если некто заявляет: «Мой дядя курил всю жизнь и дожил до 90 лет; значит, и тебе от курения вреда не будет», то единственно верный (хотя и невежливый ответ) заключается в том, что чрезвычайно глупо полагаться в вопросах здоровья на выборку, объем которой равен единице.
Вернемся к кошкам. Мой аргумент был бы значительно сильнее, если бы опирался на более обширную выборку. В целом верно следующее.
• Чем больше объем выборки, тем надежнее она представляет целое. Индуктивные аргументы на основе маленьких выборок значительно слабее аргументов, опирающихся на масштабные выборки.
Выборки большого объема, однако, недостаточно, чтобы обеспечить истинность оценок. Предположим, у меня есть сайт, посвященный кофе. Я хочу узнать, сколько людей предпочитают кофе чаю, и устраиваю опрос под названием «Большое кофейное исследование Тома», предлагая посетителям сайта выбрать ответы на несколько вопросов об их пристрастиях. Результаты таковы.
В ходе последнего исследования с участием более чем 2000 человек поразительно большое число респондентов – целых 80 % (их оказалось в четыре с лишним раза больше, чем поклонников чая) – назвали кофе своим любимым горячим напитком, а больше половины – вообще самым любимым из всех напитков, включая спиртные. Безусловное лидерство кофе в нашей стране подтверждено официально!
Вы заметили мою ошибку? Дело в том, что я провел опрос на сайте, посвященном исключительно кофе. Хотя в нем участвовало более 2000 человек, все они, без исключения, отвечали двум условиям: