Цитаты из книги «Программируя Вселенную. Квантовый компьютер и будущее науки», страница 5
...в так называемой многомировой интерпретации квантовой механики, всякий раз, когда кто-то проводит измерение, дающее какую-то информацию о том, устроен ли мир так или иначе, мир делится на два и реализует обе возможности. В обычной (копенгагенской) интерпретации квантовой механики, если я спрашиваю ядерную частицу, вращается ли она по часовой стрелке или против, она с равной вероятностью выберет или то, или другое направление. Но в многомировой интерпретации в момент измерения тропки мира расходятся, и он идет не по одной из них, а по обеим сразу.
Как мы помним, энтропия – это невидимая информация, или «неведение», и она нам недоступна. Но различие между «видимым» и «невидимым» зависит от того, кто является наблюдателем. Поэтому можно уменьшить энтропию системы, просто наблюдая за ней.
...энтропия – это информация, которая неизвестна (то есть невидима).
...динамические законы физики для замкнутых физических систем гласят, что каждое исходное состояние переходит в одно и только одно результирующее состояние, а каждое результирующее состояние может возникнуть из одного и только одного исходного состояния. Таким образом, можно вернуться назад: если нам известно нынешнее физическое состояние системы, то, в принципе, следуя физической динамике этой системы, можно определить ее состояние в более ранний или в более поздний момент.
Книга, которую вы держите в руках, содержит лишь несколько миллионов битов информации.
Но как физическая система, например газ, записывает и сохраняет информацию? Возьмем детский воздушный шарик, заполненный гелием. Атомы гелия в воздушном шарике носятся с места на место, сталкиваясь друг с другом и с оболочкой шарика. Каждый атом гелия есть носитель информации, а именно – количества информации, необходимого для описания того, где он находится (положение), куда и как быстро он движется (скорость). Чтобы измерить количество информации, которую содержит атом, следует определить самый малый масштаб, то есть степень точности, с которой могут быть описаны положение и скорость атома. Тогда число битов, которые содержит данный атом, будет равно числу битов, необходимых для того, чтобы определить его положение и скорость с точностью, заданной этим самым малым масштабом. Позже мы увидим, что пределы точности, с которыми могут быть измерены положение и скорость, определяются квантовой механикой. С учетом этого естественного масштаба каждый атом в воздушном шарике содержит около 20 битов. Количество информации, записанной всеми атомами гелия в воздушном шарике, является произведением этой величины на количество атомов, а их примерно 6х1023. Таким образом, гелий в воздушном шарике содержит примерно десять миллионов миллиардов миллиардов (1025) битов информации.
...
Все компьютеры в мире в настоящее время содержат миллиард миллиардов битов, если не больше. И все же все биты информации, созданные человеком в письменном или электронном виде, все равно не могут сравниться с количеством информации, записанной атомами гелия в одном воздушном шарике.
Конечно, биты информации, которую содержат атомы гелия в воздушном шарике, не тянут на приключенческий роман. Как и тексты, напечатанные обезьяной на пишущей машинке, биты, запечатленные атомами, с очень высокой вероятностью представляют собой бессмыслицу. Даже если положения и скорости атомов гелия в какой-то момент времени вдруг можно расшифровать как полный текст «Гамлета» (а мы уже знаем, что это крайне маловероятно), секунду спустя эти биты снова «рассыплются» в случайную картину.
...чем быстрее атомы движутся, тем больше нужно информации для описания их движений и тем большей энтропией они обладают. Температура – это мера компромисса между информацией и энергией: при высокой температуре атомам нужно больше энергии, чтобы записать один бит информации, а при низкой атомам нужно для этого меньше энергии. Температура – это, в сущности, энергия в расчете на один бит. Когда энергия в форме теплоты переходит от горячего объекта к холодному, энтропия увеличивается: то же самое количество энергии хранит меньше информации, когда объект горячий, чем когда объект холодный. Состояние максимальной энтропии достигается в том случае, когда температура всех объектов одинакова.
Но что это за штука, энтропия? Ответ дает атомная гипотеза. Теплота – это форма энергии, и энтропия связана с теплотой. Если вещи состоят из атомов, то существует простое объяснение теплоты – это просто энергия движения атомов. Тогда и у энтропии есть простая интерпретация: для описания движения атомов нужно много битов информации. Величина, называемая энтропией, пропорциональна количеству битов, необходимых для того, чтобы описать то, как движутся атомы.
...первое начало термодинамики является утверждением относительно энергии: превращаясь из механической энергии в теплоту, она сохраняется. Второе начало термодинамики, однако, относится к информации и к тому, как она обрабатывается на микроскопическом уровне. Этот закон гласит, что энтропия (которая является мерой информации) имеет тенденцию увеличиваться. Точнее, каждая физическая система содержит определенное число битов информации – и невидимой (или энтропии), и видимой, а динамические процессы, в ходе которых обрабатывается и трансформируется эта информация, ни при каких условиях не уменьшают общего количества битов.
...все физические системы хранят и обрабатывают информацию и если мы узнаем, как вычисляет Вселенная, то сможем понять, почему она так сложна. Но когда же возникло понимание того, что все физические системы содержат и обрабатывают информацию, которую раньше считали чем-то нефизическим? Научные исследования в области информации и теории вычислений начались в 1930-х гг., а их взрывное развитие пришлось на вторую половину XX в. Но понимание того, что информация есть фундаментальная физическая величина, пришло раньше, чем начались эти научные исследования. К концу XIX в. уже было вполне понятно, что все физические системы содержат определимое количество информации и что их динамика ее преобразует и обрабатывает. В частности, пришло понимание определенной физической величины – энтропии – как меры количества информации, содержащейся в отдельных атомах вещества.