Как мы видели, появление отдельной единицы (звука или буквы, единицы выражения, слова и т. п.) может быть полностью или частично детерминировано контекстом. Теперь мы должны внести ясность в понятие контекстуальной детерминированности (или обусловленности) и вывести те импликации, которые оно имеет для лингвистической теории. Для простоты мы сначала ограничим свое внимание рассмотрением контекстуальной детерминированности, действующей в пределах синтагматически связанных единиц одного уровня языковой структуры; другими словами, мы в данный момент пренебрежем тем очень важным моментом, что комплексы единиц низшего уровня реализуют единицы высшего уровня, которые сами имеют контекстуально детерминированные вероятности.
Мы будем употреблять символы х
и у как переменные, каждая из которых обозначает отдельную единицу или синтагматически связанную группу единиц; кроме того, мы допустим, что х и у сами находятся в синтагматической связи. (Например, на уровне единиц выражения х может обозначать /b/ или /b/ + /i/, а у — /t/ или /i/ + /t/; на уровне слов х может обозначать men 'мужчины' или old 'старые' + men, а у — sing 'петь' или sing + beautifully 'прекрасно'.) Как х, так и у имеют среднюю a priori вероятность появления — рх и ру соответственно. Подобным образом сочетание х + у имеет среднюю вероятность появления, которую мы обозначим как pху.В предельном случае статистической независимости между х
и у вероятность сочетания х + у будет равна произведению вероятностей х и у: рху = рх x ру. Этот фундаментальный принцип теории вероятности можно проиллюстрировать посредством простого числового примера. Рассмотрим числа от 10 до 39 (включительно) и обозначим через х и у цифры 2 и 7 в первой и второй позиции их десятичного представления: сочетание x и у будет, таким образом, обозначать число 27. В пределах рассматриваемого ряда чисел (исходя из предположения, что все 30 чисел равновероятны) рх = 1/3 и py = 1/10. Если бы мы «задумали число между 10 и 39» и попросили бы кого-нибудь отгадать задуманное число, его шанс угадать правильно (без помощи другой информации) был бы один из тридцати: рхy = 1/30. Но допустим, что мы сказали ему, что это число кратно 3. Ясно, что его шанс правильно отгадать вырастает до 1/10. С нашей точки зрения, более существенно (поскольку мы рассматриваем вероятность появления одного знака в контексте другого) то, что выбор одного из двух знаков не является больше статистически независимым от выбора другого. Вероятность у, если дано, что х = 2, равна 1/3, поскольку только три числа кратны 3 в данном ряду (21, 24, 27); а вероятность x, если дано, что у = 7, равна 1, поскольку только одно число в пределах данного ряда оканчивается на 7 и кратно 3. Можно обозначить эти равенства как py (x) = 1/3 и рх (у) = 1. Условная вероятность появления у в контексте х равна 1/3, а условная вероятность х при данном у равна 1. (Два выражения «в контексте» и «при данном» следует понимать как эквивалентные; оба употребительны в работах по статистической лингвистике.) Обобщая этот пример: если рх (у) = рх (то есть если вероятность х в контексте у равна его априорной, необусловленной, вероятности), то х является статистически независимым от у; если же вероятность появления х увеличивается или уменьшается с появлением у, то есть если рх (у) > рх или рх (у) > рх, то х «положительно» или «отрицательно» обусловлен у. Крайним случаем «положительной» обусловленности является, конечно, полная избыточность при рх (у) = 1 (у предполагает х), а крайним случаем «отрицательной» обусловленности — «невозможность», то есть рх (у) = 0 (у исключает х). Важно иметь в виду, что контекстуальная обусловленность может быть и «положительной» и «отрицательной» (в том смысле, в каком эти термины здесь употребляются), а также что вероятность х при данном у не всегда, а точнее, лишь в редких случаях, равна вероятности у при данном х.