Шрифт:
Закладка:
Одной из точек смыкания термодинамической и информационной энтропии являлся, например, известный парадокс «демона Максвелла», гипотетического устройства, стоящего на границе двух объемов и способного различать быстрые и медленные молекулы и, соответственно, пропускать или не пропускать молекулы в одну сторону, что спонтанно ведет к увеличению упорядоченности системы и падению энтропии, что формально противоречит второму началу термодинамики. Решение парадокса было предложено французским и американским физиком Леоном Бриллюэном, математически показавшем, что даже демон ничего не хочет делать бесплатно: чтобы увидеть скорость молекулы, ему нужно заплатить энергией, которая не может быть менее энергии одного теплового кванта (0,025 эВ при комнатной температуре), и эта энергия соответствует минимальной цене одного бита информации. То есть демон совершает работу по обработке информации, и эта работа охлаждает одно тело и нагревает другое, и так же, как за работу любого домашнего холодильника, за эту работу надо платить.
Теория семантической информации
Демон Максвелла получает (увеличивает) информацию о системе, равную уменьшению энтропии (или увеличению негэнтропии), и, казалось бы, отсюда информация = негэнтропия. Однако Бриллюэн различал свободную информацию (без четкого определения) и связанную, возникающую, когда возможные случаи могут быть представлены как микроинформация физической системы, и замечал, что «только связанная информация будет представляться связанной с энтропией».
В российской литературе и части зарубежной со связанной информацией Бриллюэна наиболее соотносится термин «микроинформация», отличающийся от «макроинформации» (практически всегда соответствующей общему термину «информация» в большинстве резонов его применения) тем, что не обладает свойством фиксируемости (запоминаемости). В работах Дэвида Уолперта (см. ниже) с микроинформацией может быть сопоставлена «синтаксическая информация», а с макроинформацией – «семантическая (смысловая) информация». Помимо запоминаемости вторым критерием информации в наиболее оптимальном для практического применения определении информации по Генри Кастлеру является случайность: «информация есть случайный и запомненный выбор одного варианта из нескольких возможных и равноправных» (Кастлер Г., 1967). Важнейший момент в данной теории информации следует из ее определения: возникновение (генерация) информации – это случайный, но запомненный выбор. Второй важный момент – это наличие ценности информации, мерилом которой служит степень ее соответствия цели системы. Она может определяться как функция, включающая отношение вероятности достижения цели (или уменьшения энергетических, временнЫх или материальных затрат, если цель безусловно достижима) после получения информации, к этой вероятности или снижению затрат без обладания этой информацией (Чернавский Д. С., 2004). До получения информации вероятность достижения цели определяется тем, какой предварительной запомненной информацией (тезаурусом) уже располагает принимающий ее элемент. Имея минимумом информации, хотя бы минимальной запомненной информацией «о самом себе», элемент располагает минимальным тезаурусом.
В новой математической теории семантической информации Дэвида Уолперта и Артемия Колчинского (Artemy Kolchinsky and David H. Wolpert, 2018) эта мысль развивается с учетом ключевого влияния окружающей среды: семантическая («макро-») информация определяется как синтаксическая («микро-») информация, которую физическая система располагает о своей окружающей среде, и которая ситуативно (casually) необходима системе, чтобы поддерживать свое существование во времени (что созвучно понятию ценности информации).
Семантическая информация поддерживает длительное существование системы за счет минимизации энтропии системы. Дэвид Уолперт разделяет два вида семантической информации: сохраненную семантическую информацию, которая основывается на обмене общей информацией между системой и окружением в некий исходный момент времени, и наблюдаемую информацию, которая основывается на переносе энтропии между системой и окружением за время от исходного до момента наблюдения. В отличие от синтаксической микроинформации семантическая информация, располагая критерием ценности, может быть ценной (положительной), малоценной или вовсе ошибочной, то есть отрицательной, наносящей урон системе, сокращающей время ее существования. Семантическая информация, в противоположность синтаксической, по Уолперту, фундаментально ассиметрична в ходе любого обмена ею. Другое ключевое понятие, вводимое Уолпертом, это понятие «автономного агента» – физическая система способна быть автономным агентом в той степени, в какой она располагает объемом семантической информации. Данной теорией предполагается, что способность быть живым – это способность быть чрезвычайно развитым автономным информационным агентом.
Квантовая теория информации
Можно обсуждать, на каком уровне организации материи вообще возникает эта способность – обладать тезаурусом / быть минимальным автономным агентом. Она, связана с возможностью объекта случайно «выбирать» из нескольких (минимум двух) устойчивых состояний.
Квантовая теория информации в версии Сета Ллойда (Seth Lloyd, Ллойд С, 2013, Extreme Quantum Information Theory, xQIT) устанавливает, что уже каждая элементарная частица несет в себе информацию; даже исходя из принципа Паули каждая частица во Вселенной «знает», где находится другая аналогичная частица и может находиться как во многих «определенных» состояниях, так и «неопределенных» (суперпозициях). В квантовой механике, согласно xQIT, информация может возникать как бы «из ничего», что немыслимо для классической физики. Информация «из ничего», как увеличение энтропии (то есть микроинформация), возникает вследствие феномена квантовой запутанности из любого взаимодействия квантовых частиц – квантовых единиц информации (кубитов). И эта информация, вследствие дальнейшей цепи взаимодействий, имеет тенденцию к максимальному распространению в пространстве-времени, то есть обладает некоей «заразностью».
Сама Вселенная в рамках xQIT описывается как единый квантовый компьютер, вычисляющая сама себя. Кроме того, любые системы, имеющие в основе физические взаимодействия, понимаются ею как вычислительные. Доказывается, что вычислительная мощность любой физической системы может быть подсчитана как функция количества доступной системе энергии вместе с размером этой системы (Lloyd S., 2000). Своеобразные пределы вычислительной мощности (скорости обработки и генерации информации) задает теорема Марголюса – Левитина, устанавливающая, что максимальная частота, с которой физическая система (например, даже элементарная частица – такая, как электрон) может переходить из одного состояния в другое, пропорциональна доступной энергии системы: чем больше доступной энергии, тем меньше времени нужно системе (электрону) для перехода из одного состояния в другое (Margolus N. and Levitin L. B., 1998). Полными признаками вычислительных систем обладают химические и биологические системы. Даже в рамках ньютоновской механики столкновения атомов, как столкновения бильярдных шаров естественным образом совершают базовые логические операции «или», «и», «не», «копировать», согласно концепции «бильярдного» или обратимого механического компьютера Эдварда Фредкина и Томазо Тоффоли (Edward Fredkin and Tommaso Toffoli, 1982). И, соответственно, любая химическая система или реакция также могут быть описаны в терминах базовых логических операций.
Нет оснований сомневаться и в вычислительном характере поведения биологических систем. Наиболее очевидным образом это можно увидеть на примере простейших, как нам кажется, организмов. В эксперименте Липин Чжоу и соавт. (Liping Zhou et al., 2018) группа китайских и