Шрифт:
Закладка:
Может ли на сверхпроводящей планете возникнуть нечто вроде естественного отбора? Мы можем представить себе небольшие, самоподдерживающиеся электромагнитные «пакеты», движущиеся внутри такой планеты. Пакеты, которые были более стойкими — например, те, у которых магнитные поля создавали более прочный барьер между тем, что находилось внутри пакета, и тем, что было снаружи, — сохранялись дольше. К тому же они с большей вероятностью будут расти за счёт электрических или магнитных полей в окружающей среде. Если бы эти пакеты развились до такого состояния, когда они разделятся, то у них было бы средство передать характеристики, которые сделали их более стойкими, своим «потомкам». Это может стать началом своеобразного выживания наиболее приспособленных.
Наконец, мы переходим к обсуждению возможности такой формы жизни, которая существует только в научной фантастике. В романе «Академия на краю гибели» Айзек Азимов представляет концепцию планеты, все компоненты которой образуют взаимосвязанную систему. Этот тип планеты появляется также в фильме «Аватар», где вся жизнь Пандоры связана между собой своего рода нейронной сетью. По сути, такая планета в целом является живой, хотя отдельные её части могут быть живыми, а могут и не быть. Возможно, вы понимаете, что такая планета является логическим результатом гипотезы Гайи, которую мы обсуждали в главе 3. (Кстати, планета в романе Азимова называется Гайя.) Суть такой системы в том, что изучение любого отдельного предмета — например, дерева или камня — почти ничего не скажет вам об огромной взаимосвязанной форме жизни, частью которой они являются. Это было бы всё равно, что изучать характеристики одного транзистора и упускать из виду тот факт, что это — просто один маленький компонент суперкомпьютера.
Как мы уже утверждали в главе 3, не существует никаких научных оснований предполагать, что такая сверхсвязанная система может существовать. С другой стороны, если бы она действительно существовала, мы подозреваем, что это была бы самая трудная для распознания и понимания исследователями-людьми форма жизни.
Когда цифровые компьютеры были разработаны впервые, это были гигантские, неуклюжие устройства, которые зависели от работы вакуумных ламп. Замена вакуумных ламп на транзисторы улучшила их производительность и уменьшила размеры. Тем не менее, в 1960-х и 1970-х годах, когда авторы учились в колледже, компьютер всё ещё мог занимать большую комнату и требовать команды из полудюжины человек, чтобы он мог работать и предоставлять интерфейс пользователям. На том этапе компьютеры были машинами, которые могли следовать инструкциям, данным им людьми, но не выходить за рамки этих инструкций — их воспринимали как своего рода возвеличенные пишущие машинки. Однако уже к тому времени писатели-фантасты начали представлять себе будущее, населенное сложными, осознающими себя компьютерами, обычно воплощёнными в роботов. В зависимости от автора, эти технологически развитые, похожие на живых существ машины могут быть злобными, как в серии фильмов «Терминатор», полезными, как в фильме «Я, робот», или даже богоподобными, как в серии романов о космических путешествиях «Культура» покойного Иэна М. Бэнкса. Во всех этих случаях машины «живые» в каком-то довольно неоднозначном смысле.
Как же всё изменилось! В 1965 году американский инженер Гордон Мур, один из основателей Intel, сделал наблюдение, которое стало известно как закон Мура: в целом, любой из показателей производительности компьютера, вроде количества транзисторов, которые можно разместить на чипе, будет удваиваться каждые два года. Позже было высказано предположение, что производительность компьютера может удваиваться каждые 18 месяцев. За десятилетия, прошедшие с момента его формулировки, закон Мура подтверждался даже тогда, когда технологии менялись — от транзисторов к интегральным схемам и микрочипам.
Важно понимать, что «закон» Мура не является законом природы, подобным закону всемирного тяготения Ньютона. Это просто наблюдение и руководство к действию, аналогичное закону Мерфи (если что-то может пойти не так, всё именно так и случится). Более того, можно утверждать, что закон Мура не может продолжать действовать вечно — рано или поздно вам придётся иметь дело с эквивалентом транзистора размером меньше атома или молекулы. Это кажется невозможным, хотя стоит отметить, что некоторые специалисты по вычислительной технике пытаются разработать системы, которые хранят информацию на отдельных молекулах.
В любом случае закон Мура естественным образом заставляет нас задуматься о двух возможных событиях в будущем. Одно из них — это тот момент, когда мы можем разместить на чипе столько же транзисторов, сколько есть нейронов в человеческом мозге (считается, что их около 100 миллиардов). Назовём его «точкой нейронной эквивалентности». Второе (и более важное) событие — это момент, когда машины достигают уровня интеллекта, эквивалентного интеллекту, которым обладают люди, и вдобавок приобретают способность совершенствоваться. Это состояние называется технологической сингулярностью, и оно было предметом долгих размышлений и анализа.
Пока закон Мура неотвратимо продвигался вперёд, изменилась сама сущность компьютеров. Вместо того, чтобы быть описанными выше возвеличенными пишущими машинками, неспособными выходить за рамки инструкций, вводимых в них операторами-людьми, они приобрели способность к самостоятельному обучению без присмотра человека. Методы, которые позволяют им делать это, называются машинным обучением и искусственным интеллектом (ИИ).
Вот простой пример того, как работают подобные методы: предположим, вы хотите, чтобы ваш компьютер считывал написанные от руки адреса на конвертах — задача, важность которой очевидна для организации вроде Почтовой службы США. Одним из примеров способностей, требуемых от машины, было бы распознавание буквы «е». Один из способов научить компьютер делать это — написать букву «е» на листе бумаги, а затем компьютер наложит на неё сетку в электронной форме. Каждый из квадратов в сетке — технически обозначаемый как «элемент изображения» или пиксель — будет пустым (если он находится не там, где напечатана буква), тёмным (если он находится в напечатанной области) или чем-то средним (если в нём находится край буквы). Тем самым компьютер может преобразовать изображение буквы на листе бумаги в строку чисел, причем каждое число описывает оттенок одного пикселя.
После того, как компьютер «прочитал» серию светлых и тёмных пикселей и задействовал алгоритм принятия решения о том, соответствуют ли они букве «e», кто-то (или что-то) сообщает ему, успешно ли он осуществил идентификацию. Как правило, этот процесс повторяется на многих листах бумаги, на каждом из которых начертание «е» отличается от других — печатная буква, курсив, готический шрифт и так далее — и каждый раз алгоритм решает, присутствует ли там буква «e». В итоге в определённом проценте случаев он примет правильное решение. Предположим чисто теоретически, что при испытательном запуске успешность составляет 70 процентов — то есть, алгоритм правильно определил букву «e» на 70 процентах изученных листов. Теперь компьютер обновляет свой алгоритм. Он может, например, изменить способ сравнения результатов с разных пикселей, придавая меньшее значение тем, которые находятся ближе к краю бумаги. Затем он ещё раз полностью повторяет этот процесс. Если процент успеха увеличивается, он сохраняет изменения в алгоритме; если нет — возвращается к исходному. Компьютер будет так или иначе продолжать пробовать различные изменения в алгоритме, всегда отдавая предпочтение тем, которые дают более правильное распознавание. В итоге система станет показывать высокий процент успеха, и в этот момент мы скажем, что она «обучилась».