Рассмотрим телеграф. Телеграф передает сообщения с помощью коротких импульсов электрического тока, проходящих по проводам. Сочетания коротких точек и длинных тире определяют алфавит. Например, в американской азбуке Морзе точка и тире обозначают букву "А", а две точки и тире - "U". Физические ограничения и несовершенство проводов, по которым передавались эти сообщения, особенно на большие расстояния или под океанами, накладывали ограничения на скорость передачи информации. Телеграфисты, набиравшие текст слишком быстро, рисковали столкнуть точки и тире вместе, создав нечленораздельный "боров Морзе", который был бы бесполезен для его получателя. На практике операторы могли безопасно отправлять в среднем около 100 писем в минуту.
Чтобы создать практическую меру скорости передачи информации, Шеннон объединил присущую коду скорость передачи информации с физической скоростью передачи по каналу, по которому он передается. Например, код, содержащий пять битов информации на символ и передаваемый по каналу, который может передавать 10 символов в минуту, будет иметь общую скорость передачи информации 50 битов в минуту. Максимальная скорость, с которой информация может быть передана по каналу без ошибок, называется пропускной способностью канала.
Публикация Шеннона позволила придать четкую структуру понятию, которое, как известно, было туманным. Таким образом, она заложила основу для растущей объективизации информации в последующие десятилетия. Однако непосредственное влияние работы Шеннона на обработку информации в реальном мире было незначительным. В более двух десятилетий, чтобыпоявилась технология , благодаря которой передача, хранение и обработка информации стали неотъемлемой частью повседневной жизни. А инженерам потребовалось время, чтобы понять, как использовать теорию Шеннона для практического применения в этих устройствах. Влияние теории информации на биологию, однако, проявилось гораздо быстрее.
* * *
Первое применение теории информации в биологии стало результатом войны. Генри Квастлер, австрийский врач, жил и работал в США во время Второй мировой войны. Его реакция на разработку атомной бомбы была ужасом - и действием. Он оставил частную практику и начал заниматься исследованиями медицинских и генетических последствий применения атомных бомб. Но ему нужен был способ количественной оценки того, как информация, закодированная в организме, изменяется под воздействием радиации. Эти формулы - просто находка, просто великолепно! Теперь я могу продолжать", - сказал Квастлер, узнав о теории Шеннона. В 1949 году - всего через год после публикации работы Шеннона - он написал работу под названием "Информационное содержание и коэффициент ошибок живых существ". Она положила начало изучению информации в биологии.
Нейронаука не замедлила последовать за ними. В 1952 году Уоррен Маккалох и физик Дональд Маккей опубликовали работу "Предельная информационная емкость нейронного звена". В этой работе они вывели наиболее оптимистичную, по их мнению, оценку того, сколько информации может нести один нейрон. Основываясь на среднем времени, необходимом для возникновения потенциала действия, минимальном времени между импульсами и других физиологических факторах, Маккей и Маккалох рассчитали верхнюю границу в 2 900 бит в секунду.
Маккей и Маккалох поспешили подчеркнуть, что это не означает, что нейроны действительно передают такой объем информации, а только то, что при наилучших обстоятельствах они могли бы это сделать. После их статьи последовало множество других публикаций, каждая из которых была направлена на выяснение истинной способности мозга к кодированию. Эта область была настолько переполнена попытками, что в 1967 году нейробиолог Ричард Стайн написал статью, в которой одновременно признал привлекательность теории информации для количественной оценки нервной передачи, но также посетовал на "огромные расхождения", которые возникли в результате ее применения. Действительно, в работах, последовавших за работами Маккея и Маккалоха, оценки варьировались от более высоких, чем их значение - 4000 бит в секунду на нейрон, - до значительно более низких, до одной трети бита в секунду.
Такое разнообразие отчасти объясняется различиями в представлениях о том, как части и паттерны нервной деятельности должны быть отображены на формальные компоненты теории информации Шеннона. Самый большой вопрос заключался в том, как определить символ. Какие аспекты нервной активности действительно несут информацию, а какие являются случайными? Что, по сути, представляет собой нейронный код?