Шрифт:
Закладка:
Но может случиться и так, что из-за какой-то простейшей неисправности вместо лампочки В загорится лампочка А или наоборот, и тогда, чтобы избежать этой опасности, мы продолжаем усложнять код, увеличивая его комбинаторные возможности. Добавим еще две лампочки и получим ряд ABCD, в котором АС будет означать «безопасный уровень», BD – нулевую отметку. Таким образом, мы уменьшим опасность помех, могущих исказить сообщение.
Итак, мы ввели в код элемент избыточности: мы пользуемся двумя парами лампочек для сообщения того, что можно было бы сообщить с помощью одной лампочки, и, стало быть, дублируем сообщение.
Впрочем, избыточность, предоставляющая возможность дублировать сообщение, не только обеспечивает большую надежность, усложненный таким образом код позволяет передавать дополнительные сообщения. Действительно, код, состоящий из элементов ABCD, допускает различные комбинации, например: A-B-C-D, AB-BC–CD-AC-BD-AD, ABC-BCD-ACD-ABD, а также другие сочетания АВ-CD или же A-C-B-D и т. д.
Код, следовательно, предполагает наличие репертуара символов, и некоторые из них будут соотноситься с определенными явлениями, в то время как прочие до поры до времени останутся незадействованными, не значащими (хотя они и могут заявлять о себе в виде шума), но готовыми означить любые сообщения, которые нам покажутся достойными передачи.
Всего этого достаточно, чтобы код мог сигнализировать не только об уровне опасности. Можно выделить ряд уровней, последовательно описывающих переход от полной безопасности к состоянию тревоги, обозначая уровни ниже нулевой отметки: – 3, – 2, – 1 и т. д., и ряд уровней выше нулевой отметки 1, 2, 3, от «очень тревожно» до «максимальная опасность», закрепив за каждым определенную комбинацию букв путем введения соответствующих программ в передающее и принимающее устройства.
II. 4. Каким же образом передается сигнал в кодах такого типа? Принцип их действия – это выбор из двух возможностей, обозначим его как оппозицию «да» и «нет». Лампа или горит, или не горит (есть ток в цепи, нет тока). Суть дела не меняется, если сигнал передается как-то иначе. Во всех подобных случаях имеется бинарная оппозиция, максимальная амплитуда колебания от 1 к о, от «да» к «нет», от размыкания к замыканию.
Здесь не обсуждается вопрос о том, является ли метод бинарных оппозиций, позаимствованный, как мы увидим позже, из теории информации, наиболее подходящим способом описания передачи информации и всегда ли и везде передача информации основана на двоичном коде (всякая ли коммуникация, когда бы и где она ни осуществлялась, базируется на последовательном двоичном выборе). Однако то обстоятельство, что все науки – от лингвистики до нейрофизиологии – при описании коммуникативных процессов пользуются бинарным методом, свидетельствует о его простоте и экономичности в сравнении с другими.
III. Информация
III. 1. Когда мы узнаем, какое из двух событий имеет место, мы получаем информацию. Предполагается, что оба события равновероятны и что мы находимся в полном неведении относительно того, какое из них произойдет. Вероятность – это отношение числа возможностей ожидаемого исхода к общему числу возможностей. Если я подбрасываю монетку, ожидая, что выпадет: орел или решка, то вероятность составит 1/2.
В случае игральной кости, у которой шесть сторон, вероятность для каждой составит 1/6, если же я бросаю одновременно две кости, рассчитывая получить две шестерки или две пятерки, вероятность выпадания одинаковых сторон будет равняться произведению простых вероятностей, т. е. 1/36.
Отношение ряда событий к ряду соответствующих им возможностей – это отношение между арифметической и геометрической прогрессиями, и второй ряд является логарифмом первого.
Это означает, что при наличии 64-х возможных исходов, когда, например, мы хотим узнать, на какую из 64-х клеточек шахматной доски пал выбор, мы получаем количество информации, равное lg264, т. е. шести. Иными словами, чтобы определить, какое из шестидесяти четырех равновероятных событий произошло, нам необходимо последовательно произвести шесть операций выбора из двух.
Как это происходит, показано на рис. 2, причем для простоты число возможных случаев сокращено до восьми, если имеется восемь непредсказуемых, так как они все равновероятны, возможных исходов, то определение одного из них потребует трех последовательных операций выбора. Эти операции выбора обозначены буквами. Например, чтобы идентифицировать пятый случай, нужно три раза произвести выбор в точке А между В1 и В2, в точке В2 между С3 и С4 и в точке С3 выбрать между пятым и шестым случаями. И так как речь шла об идентификации одного случая из восьми возможных, то
Log28 = 3.
В теории информации единицей информации, или битом (от «binary digit», т. е. «бинарный сигнал»), называют информацию, получаемую при выборе из двух равновероятных возможностей. Следовательно, если идентифицируется один из восьми случаев, мы получаем три бита информации, если один из шестидесяти четырех – то шесть битов.
При помощи бинарного метода определяется один из любого возможного числа случаев – достаточно последовательно осуществлять выбор, постепенно сужая круг возможностей. Электронный мозг, называемый цифровым, или дигитальным, работая с огромной скоростью, осуществляет астрономическое число операций выбора в единицу времени. Напомним, что и обычный калькулятор функционирует за счет замыкания и размыкания цепи, обозначенных 1 и о, соответственно; на этой основе возможно выполнение самых разнообразных операций, предусмотренных алгеброй Буля.
III. 2. Характерно, что в новейших лингвистических исследованиях обсуждаются возможности применения метода бинарных оппозиций при изучении вопроса о возникновении информации в таких сложных системах, как, например, естественный язык[21].
Знаки (слова) языка состоят из фонем и их сочетаний, а фонемы – это минимальные единицы звучания, обладающие дифференциальными признаками, это непродолжительные звучания, которые могут совпадать или не совпадать с буквами или буквой алфавита и которые сами по себе не обладают значением, но, однако, пи одна из них не может подменять собой другую, а когда такое случается, слово меняет свое значение. Например, по‑итальянски я могу по‑разному произносить «e» в словах «bene» и «cena», но разница в произношении не изменит значения слов. Напротив, если, говоря по‑английски, я произношу «i» в словах «ship» и «sheep» (транскрибированных в словаре соответственно «∫ip» и «∫i: p») по‑разному, налицо оппозиция двух фонем, и действительно, первое слово означает «корабль», второе – «овца». Стало быть, и в этом случае можно говорить об информации, возникающей за счет бинарных оппозиций.
III. 3. Вернемся, однако, к нашей коммуникативной модели. Речь шла о единицах информации, и мы установили, что, когда, например, известно, какое событие из восьми возможных осуществилось, мы получаем три бита информации. Но эта «информация» имеет косвенное отношение к собственно содержанию сообщения, к тому, что мы из него узнали. Ведь для теории информации не