Шрифт:
Закладка:
К сожалению, в настоящий момент нет достаточно достоверных аналитических инструментов, позволяющих математически строго определить нахождение системы в состоянии СОК и таким образом предсказывать грядущие великие события или великие катастрофы, хотя прикладные решения для частных случаев, чаще исторических, нежели актуальных, предлагаются с нарастающей частотой.
На протобиологическом этапе эволюции (протобиологическими мы договоримся называть устойчивые структуры с обменом веществ и энергии, но без функции наследования информации с помощью репликации нуклеиновых кислот) системы мембран обрели энергетическую устойчивость в циклических трансформациях, возможно благодаря структурной или какой иной, не информационной, функции нуклеиновых кислот. На этом уровне организации из случайного несвязанного набора однотипных органических молекул (нуклеотидов) уже может вознуть тот уровень биологической сложности, с которого начинается ее экспоненциальный рост.
Рождение сложности
Формально статистически сложность любого, в том числе совершенно случайного набора нуклеотидов можно определить как количество битов, необходимых для описания этой последовательности. Такая сложность будет просто возрастать с ростом числа нуклеотидов, вместе с энтропией этой системы. Она описывает число микросостояний системы, ее микроинформацию, или, иначе, потенциальную или синтаксическую информацию.
Очевидно, что эта сложность не совсем та, с помощью которой можно оценивать реальную сложность системы, так как совсем не учитывает смысловое и ценностное (семантическое) наполнение информации, однако и совсем недооценивать значение этой сложности нельзя: она является фундаментом всех остальных. На примере кучи песка она мало зависит от формы кучи, и нарастает с поступлением новых песчинок, однако при возникновении и нарастании критичности пути сложности и энтропии временно расходятся: сложность благодаря возникновению новых взаимодействий начинает возрастать, а энтропия при развитии «лавины» – падать.
Функциональная сложность, чаще всего понимаемая под сложностью системы, – это тоже сложность описания, но не самой системы, а множества выполняемых ею функций или алгоритмов взаимодействия с окружающей средой. Сложность алгоритмов взаимодействия не учитывается в функциональной сложности, поэтому она оказывается меньше описательной сложности и может быть рассчитана как разница между максимальной энтропией системы и наблюдаемой, то есть как вклад воздействия окружающей среды на энтропию системы.
Если описательная сложность, например генома, связана с энтропией, микроинформацией (потенциальной или синтаксической информацией), то приведенная по его размеру функциональная сложность – с макроинформацией (актуальной или семантической информацией). Отношения макроинформации и термодинамической энтропии гораздо более сложные; пожалуй, прямого количественного соотношения между ними не существует: вообще, любое изменение макроинформации, увеличение или уменьшение, ведет к увеличению энтропии, что следует в том числе и из необратимости этих функций. В принципе, энергетический эквивалент макроинформации вычисляем: в первую очередь как количество энергии, диссипатирующей в процессе запоминания и определяется условиями процесса, например требуемой длительностью запоминания (минимальным горизонтом прогнозирования вычислительной системы). Смысловая нагруженность макроинформации (семантичность), судя по всему, также может быть выражена количественно, то есть быть больше и меньше. Представляется, что наибольший уровень семантичности информации достигается с помощью эпигенетических (надгенетических) механизмов управления наследственной информацией, обеспечивающих максимальное количество паттернов ее реализации.
В общем случае усовершенствование системы (увеличение адаптации) всегда сопровождается ростом функциональной сложности, но не наоборот: рост функциональной сложности системы не всегда сопровождается ее пропорциональным или сколько-нибудь существенным усовершенствованием.
Теория вычислительной сложности – частный раздел теории алгоритмов и информатики – рассматривает вычислительную сложность алгоритмов, определяемую как функцию зависимости объема информационных ресурсов системы (памяти и быстродействия) от размера (описательной сложности) входных данных.
К сожалению, прямое применение методов вычислительной сложности к биологическим системам сталкивается пока еще с фундаментальными трудностями описания биологических процессов и систем «инженерным» языком (эту задачу также можно отнести к области биоматематики). Как показано ранее, биологические системы в принципе обладают вычислительной сложностью, которая может быть определена как минимальный объем их информационных ресурсов, требуемый для прогнозирования состояния на заданное время с заданной точностью. Возможно, вместе с обменом веществ и энергией или вместо них достаточная вычислительная сложность служит водоразделом живого и неживого, и именно это направленная вовне функция является основной для всех систем живого, включая человеческий мозг. Напротив, стремящиеся к нулю временной и погрешностный пределы этой функции обращают ее вовнутрь, к «осознанию» самой себя, что естественным образом вытекает из квантовой теории информации (Ллойд С., 2013), согласно которой любая физическая система мгновенно «вычисляет» саму себя (состояние, в котором она должна оказаться в данный момент). Соответственно, еще раз экстраполируя обратно, появление у такой системы предиктивной способности может означать возникновение (признаков) живого.
Принцип свободной энергии Карла Фристона
В более строгой и невероятно сложной математической форме обоснование результата предикативной деятельности – разницы между вычисленным (предсказанным) и сенсорным (наблюдаемым), как основополагающей характеристики живого, дает Карл Фристон (Karl Friston, 2013; Allen M. and Friston K., 2018). Эта разница обозначается им как «свободная энергия». Эта свободная энергия не эквивалентна «классической» свободной энергии Гиббса, это скорее информационное понятие: оно ограничивает верхний предел статистической неожиданности, к которой стремится названная разница. Принцип свободной энергии (ПСЭ, Free Energy Principle, FEP) постулирует, что живые биологические объекты стремятся минимизировать свободную энергию, то есть действовать так (именно действовать), чтобы избегать феноменов неожиданности. Это вполне сообразуется с фундаментальным (и также труднодоказуемым) принципом наименьшего действия, введенного в научный оборот еще Готфридом Лейбницом и Леонардом Эйлером в XVIII веке. Свободная энергия Фристона – то, что «экономят» живые сущности, то «наименьшее действие» в биологических объектах.
Как работает ПСЭ? Полагается, что живые системы имеют свое внутреннее и внешнее состояние и могут воспринимать структурные закономерности из флуктуаций окружающей среды (например, ее физических параметров или изменений концентрации химических веществ) и отображать их в динамике своего внутреннего состояния. Отображая, они сами становятся моделями причинной структуры своего локального окружения, что позволяет им прогнозировать дальнейшее развитие событий и активно реагировать на неожиданные нарушения сделанных прогнозов. Через радикальное ограничение числа своих возможных состояний появляется способность поддерживать гомеостаз (постоянство внутренней среды). Статистически эта способность показывает высокую вероятность нахождения системы в одном из немногих избранных состояний, и низкую вероятность – в любом другом.
Карл Фристон для исследования динамики взаимодействия внутреннего состояния системы с окружающей средой через ее внешнее состояние использует понятие марковского ограждения. Марковское ограждение узла (концептуальной информационной единицы, обладающей свойствами хранить информацию и ссылаться на другие узлы), или группы узлов – это набор «родителей»