Шрифт:
Закладка:
Итак, если я хочу что-либо знать о поведении отдельной частицы, информация, которую я ищу, противостоит энтропии, но если я хочу знать все возможные варианты поведения любой частицы, тогда информация, которую я ищу, будет прямо пропорциональна энтропии; привнося в систему порядок и уменьшая энтропию, я узнаю о системе многое в каком-то одном смысле, но значительно меньше в другом.
То же самое происходит и с передачей информации.
Постараемся это пояснить ссылкой на формулу, с помощью которой обычно выражается величина какой-либо информации:
I = N log h,
где h представляет собой число элементов, из которых делается выбор, а N – количество вариантов выбора, которые можно сделать (в случае с двумя игральными костями h = 6, а N = 2; если же мы имеем шахматную доску, то h = 64, a N = ходы, которые допускаются правилами шахматной игры).
Если же речь идет о системе с высокой энтропией (где могут осуществиться все комбинации), значения величин N и h оказываются очень большими и, следовательно, самым высоким оказывается и количество той информации о поведении одного или нескольких элементов системы, которое можно было бы передать. Однако очень трудно сообщить столько бинарных вариантов выбора, сколько необходимо для того, чтобы обособить выбранный элемент и определить его сочетания с другими элементами.
Каким образом можно легко сообщить ту или иную информацию? Это можно сделать, сокращая число задействованных элементов и вариантов выбора, вводя какой-либо код, систему правил, которая предусматривает наличие строго определенного числа элементов, исключает некоторые комбинации и допускает лишь оговоренные. В этом случае можно будет сообщить информацию через разумное число бинарных вариантов выбора. Однако значения величин N и h в таком случае уменьшаются и, следовательно, уменьшается величина полученной информации.
Таким образом, чем больше информации, тем труднее ее сообщить, и чем яснее какое-либо сообщение, тем меньше в нем информации.
Вот почему в своем классическом труде по теории информации{56} Шеннон и Уивер осмысляют информацию как величину, прямо пропорциональную энтропии. Другие исследователи тоже признают, что Шеннон, один из основателей этой теории, обращает внимание именно на этот аспект информации{57}, но все они напоминают о том, что, если мы понимаем информацию в узкостатистическом смысле, она не имеет отношения к тому, истинно или ложно содержание сообщения (не имеет отношения к его «значению»). Мы лучше все это усвоим, если обратимся к некоторым высказываниям Уоррена Уивера, которые содержатся в его очерке, посвященном популяризации математического аспекта информации:{58} «В этой новой теории слово “информация” относится не столько к тому, что говорится, сколько к тому, что могло быть сказанным, то есть информация выступает как мера нашей свободы в выборе сообщения… Необходимо помнить, что в математической теории коммуникации наш интерес обращен не к значению отдельных сообщений, а к общей статистической природе источника информации…
Понятие “информации”, изложенное в этой теории, на первый взгляд кажется странным и неудовлетворительным: неудовлетворительным потому, что не имеет никакого отношения к понятию “значения”, а странным потому, что оно относится не только к какому-то отдельному сообщению, но, в первую очередь, учитывает статистический характер всей совокупности сообщений; оно странно еще и потому, что в таком статистическом контексте слова “информация” и “неопределенность” тесно связаны между собой».
Этим мы вернули наш долгий разговор о теории информации к основной для нас проблеме и тем не менее должны задаться вопросом, законно ли все-таки применять такие понятия как орудия исследования в вопросах эстетики хотя бы потому, что, как теперь ясно, статистический смысл информации гораздо шире коммуникативного.
Статистически я имею информацию тогда, когда (оставаясь по эту сторону всякого порядка) вдобавок располагаю всем перечнем вероятностей на уровне источника информации.
В коммуникативном плане я имею информацию, когда:
1) находясь в изначальной неупорядоченности, очерчиваю и утверждаю некий порядок как систему вероятности, то есть устанавливаю определенный код;
2) находясь в этой системе и не возвращаясь к тому, что ей предшествовало, я (излагая сообщение, которое является двусмысленным по отношению к установленным правилам кода) ввожу элементы неупорядоченности, которые вступают в напряженную диалектическую связь с основным порядком (сообщение приводит код к кризису).
Итак, нам придется выяснить, как сказывается использование этой намеренной неупорядоченности на сообщении, содержащемся в поэтической речи, причем здесь надо помнить о том, что эту неупорядоченность если и можно отождествить со статистическим понятием энтропии, то лишь в переносном смысле: неупорядоченность, несущая сообщение, является таковой лишь относительно предшествовавшего ей порядка.
Ii. Поэтическая речь и информация
Пример с терцетом Петрарки особым образом вписывался в этот контекст: по меньшей мере он наводил нас на мысль о том, что в искусстве один из элементов самобытности эстетической речи обусловливается как раз нарушением вероятностного порядка языка, способного сообщать обычные значения, и это приводит к увеличению числа возможных смыслов. Такой вид информации характерен для всякого эстетического сообщения и совпадает с той основополагающей открытостью любого произведения, которую мы рассматривали в предыдущей главе.
А теперь перейдем к примерам из современного искусства, где сознательно делается установка на то, чтобы расширить традиционно понимаемое значение.
Если я произношу артикль «il», то, согласно законам избыточности, вероятность того, что следующее слово будет местоимением или существительным, очень велика; если же я говорю «в случае…», то весьма высока вероятность того, что следующим словом будет «если», а не «слон», к примеру. Так обстоят дела в обычной речи, и хорошо, что так. Приводя эти примеры, Уивер приходит к выводу, что крайне мала вероятность появления фразы: «я ловлю в Константинополе неприятную гвоздику». Согласно законам статистики, которые управляют повседневным языком, это действительно так, но удивительно, что подобные фразы кажутся примером автоматического сюрреалистического письма.
Прочитаем теперь стихотворение «Остров», принадлежащее Унгаретти:
A una proda ove sera era perenne
di anziane selve assorte, scese
e s’inoltrò
e lo richiamò rumore di penne
ch’erasi sciolto dallo stridulo