Столкнувшись с этими проблемами, может возникнуть соблазн поискать убежище в количественных рамках. Две величины, энтропия и взаимная информация, стали особенно влиятельными в этологии (например, Halliday 1983; Seyfarth et al. 2010; Wheeler et al. 2011). Энтропия Шеннона - это мера количества различных состояний и их вероятностей, которые может принимать система. Системы с большим количеством одинаково возможных состояний (например, шесть сторон игральной кости) связаны с более высокой степенью неопределенности относительно текущего состояния системы, чем системы с небольшим количеством возможных состояний, особенно если одно из них очень вероятно (например, банковские хранилища заперты/не заперты). Взаимная информация отражает статистическую связь между двумя такими системами. В 1950-х и 1960-х годах в ряде исследований оценивалась взаимная информация между сигналами и ответами приемника (см. Halliday 1983). Однако, поскольку сигналы обычно не рассматриваются с точки зрения их воздействия на приемники, эта мера ("передаваемая информация", Wiley 1983) не может отразить информационное содержание сигнала. Более близкой к цели является взаимная информация между сигналами и состояниями, о которых они говорят ("транслируемая информация", Wiley 1983). Отсюда вытекает следующая идея:
[3] Содержимым S является X, если S имеет ненулевую взаимную информацию с X
Однако величины Шеннона не эквивалентны (или не являются мерой) информации в разговорном смысле содержания, и это признали несколько первых этологов. Одна из причин заключается в том, что величины усредняются по всем состояниям, которые может иметь система, тогда как содержание в разговорном смысле не является средним (Dretske 1981). Другая причина заключается в том, что уменьшение неопределенности S и уменьшение неопределенности R относительно X - это трехтерминальное отношение (включающее S, R и X), тогда как взаимная информация - это только двухтерминальное отношение между S и X.
В настоящее время предпочтительной количественной основой в исследованиях поведения животных является статистическая теория принятия решений (SDT) (Bradbury and Vehrencamp 2011). Ее основная идея заключается в том, что животные могут использовать текущее восприятие для обновления своих предварительных знаний о событиях. Предварительные знания возникают из предыдущего опыта и/или эволюционной истории. SDT использует теорему Байеса для получения апостериорных вероятностей. Разница между апостериорными и предшествующими вероятностями понимается как измерение уменьшения неопределенности животного относительно состояния, вероятность которого обновляется. Идея может быть сформулирована следующим образом:
[4] Содержание S - это X, если S обновляет ожидания R относительно X
Байесовские вероятности традиционно понимаются как степени убежденности. Это поднимает вопрос о природе убеждений, скажем, у беспозвоночных и организмов, лишенных нервной системы. Возможно, чтобы избежать этих проблем, SDT остается явно нейтральной в отношении механизмов обновления (например, Bradbury and Vehrencamp 2011). Но эта стратегия поднимает другую проблему. Если SDT используется просто как инструмент предсказания, то это оправдывает толкование S просто как имеющего содержание.
Сигнальный контент как естественная информация
Философы склонны рассматривать содержание сигналов животных как пример либо естественной, либо семантической информации. Эти два типа информации различаются в зависимости от того, допускают ли они наличие ложного содержания. Ложность требует, чтобы нечто могло нести информацию о том, что p, несмотря на то, что это не p. Например, вера в то, что сегодня пятница, несет информацию о том, что сегодня пятница, которая может быть истинной, а может и не быть (семантическая информация). Кольца деревьев, напротив, являются стандартным примером естественной информации. Шесть колец дерева указывают на то, что дереву шесть лет, потому что обычно у дерева не было бы шести колец, если бы ему на самом деле не было шесть лет.