Как стать автором
Обновить

Философия информации, глава 2. Существование информации

Время на прочтение 34 мин
Количество просмотров 11K

Перед прочтением этого текста рекомендуется прочитать начало этой истории. Иначе будет не понятно, зачем понадобилось выстраивать сложную конструкцию вместо того, чтобы сделать как обычно, по-простому.


Глава 2. Существование информации


Сигналы и контексты


Нам нужно научиться избавляться от иллюзии того, что информация содержится в книгах, на жёстких дисках, в кабелях, радиоволнах и прочих объектах, из которых мы привыкли её «извлекать». Если мы окончательно приняли, что реификация понятия «информация» недопустима, то мы просто вынуждены признать, что, например, читая книгу, мы обретаем информацию, но в том предмете, который мы для этого обязаны использовать, её нет. Предмет обязательно должен присутствовать (читать книгу, не имея её, невозможно), но содержать в себе информацию физический объект не может.

Давайте внимательно проанализируем, что происходит, когда мы читаем книгу. Безусловно имеет место некоторый физический процесс, и некоторые этапы чтения книги удобнее всего описывать именно в физических терминах. В частности, если читаем глазами бумажную книгу, то она должна существовать как материальный предмет, и должен быть обеспечен некоторый приемлемый уровень освещённости. Оптическая система «глаза» тоже должна быть, и она должна быть исправна. Использование других способов чтения (Брайль, озвучивающие программы) ситуацию меняют не особо, и в этих случаях тоже имеет смысл говорить о некоторой материальной составляющей, которая также обязана быть.

О том, что у нас, читателей, происходит в мозгу после того, как контент каким-то способом доставлен, тоже можно пытаться говорить в физических терминах, но это малоперспективно. Что-то, конечно, происходит. Материальная составляющая, вне всякого сомнения, имеет место, но способов перевести в материальные термины такую, например, простую и очевидную ситуацию, как «удивился неожиданному повороту сюжета», мы сейчас не имеем. Нельзя исключить того, что такого способа мы не будем иметь никогда. Хотя бы потому, что в разных головах механизм удивления неожиданному повороту сюжета может быть реализован по-разному.

Специфика информационных процессов, в отличие от материальных, заключается в том, что один и тот же информационный процесс может быть реализован «в материи» принципиально разными способами, но при этом оставаться самим собой. Например, сумму двух чисел можно найти при помощи электронного калькулятора, деревянный счёт, счётных палочек, листочка бумаги и ручки, или вообще в уме. Смысл и результат действия останутся одними и теми же. Книгу можно получить в бумажном виде по почте или в электронном виде по электронной почте. Способ реализации, конечно, влияет на многие нюансы, но суть и смысл происходящего остаются без изменений. Любая попытка «заземлить» информационный процесс в материальную составляющую («удивление – это не что иное, как внутренняя секреция дофамина», «восторг – не что иное, как внутренняя секреция эндорфинов») сродни тому, как если бы мы сказали, что сложение двух чисел – это не что иное, как перемещение деревянных костяшек по железным направляющим. Материальная реальность тотальна, поэтому любой информационный процесс обязан иметь материальный аспект, но к нему одному происходящее не может и не должно сводиться, иначе сложение чисел обязано будет стать монопольной прерогативой деревянных счёт. Переходя к рассмотрению информационного аспекта происходящего нужно уметь абстрагироваться от материального аспекта, при этом, естественно, понимая, что он безусловно есть, но каков он конкретно, нам не очень существенно.

Продолжим рассмотрение процесса чтения книги, абстрагировавшись от деталей материальной реализации происходящего. Для того чтобы читатель успешно прочитал текст, доставленный на его рецепторы, должен выполниться ряд условий. Во-первых, он должен знать язык, на котором она написана. Во-вторых, он должен уметь читать. В-третьих, он должен понимать, почему именно это занятие для него сейчас предпочтительнее всех остальных. Нетрудно заметить, что во всех перечисленных условиях речь идёт о наличии у читателя информации, ведь и «знание», и «умение», и «понимание» – это всё синонимы понятия «информация». Таким образом, для чтения книги мы имеем два комплекса условий успешного протекания процесса: наличие каким-либо способом доставляемого текста и предварительная подготовленность читателя. Условие доставки текста обозначим как требование наличия сигнала. Условие подготовленности читателя обозначим как требование наличия контекста.

Что важно, эти же два комплекса условий наблюдаются в любом процессе, который мы можем идентифицировать как обретение информации. Даже если рассмотреть такую простую штуку, как радиоуправляемый автомобильчик, получение им команд возможно только тогда, когда, во-первых, всё в порядке с доставкой радиосигнала (антенна не сломана и автомобильчик не укатился слишком далеко от пульта) и, во-вторых, блок управления автомобильчика «понимает» команды, посылаемые пультом. Получается, что даже несмотря на то, что всё, казалось бы, происходит в надёжно детерминированной «железке», всё равно важнейшим компонентом, обеспечившим успешное получение приёмником данных от передатчика, оказались знания, которые проектировщик приёмника получил от проектировщика передатчика. Именно эти знания обеспечили то, что приёмник стал материальным объектом, в котором атомы расположились не как попало, а вполне конкретным особым образом. Пришедшая на антенну радиоволна – отнюдь не вся информация, зашедшая в приёмник. Был ещё, возможно, электронное письмо, полученное разработчиком блока управления автомобильчика от коллеги, разрабатывавшего пульт.

Обе составляющие – и сигнал, и контекст – мы можем рассматривать и в материальном аспекте, и в информационном. Но если от информационного аспекта сигнала иногда можно абстрагироваться (особенно, когда ширина канала заведомо избыточна), то от информационного аспекта контекста, по своей сути являющего способностью интерпретировать сигнал, абстрагироваться невозможно. Контекст – это информация о том, как можно интерпретировать сигнал, и поэтому мы обязаны рассматривать как нематериальную сущность.

Может показаться, что в переносе загадочной нематериальности в этот какой-то загадочный «контекст» есть некоторый элемент жульничества. Но нетрудно заметить, что воспринимаемая информация и информация, составляющая контекст – это разные информации. Сюжет книги и знание языка, на котором она написана – это разные знания. Если получившаяся рекурсивность конструкции (для существования контекста второго порядка нужен контекст третьего порядка, и так далее вглубь, в бесконечность) вызывает некоторое беспокойство, то сразу, забегая немножко вперёд, замечу, что это не есть дефект сигнал-контекстной конструкции, а, наверно, самое ценное её свойство. Мы к этой теме вернёмся в пятой главе чтобы через рекурсивность сигнал-контекстной конструкции доказать чрезвычайно полезную теорему.

Для решения наших метафизических задач существенная выгода рассмотрения информации как того, что случается на сочетании сигнала с контекстом, заключается в том, что такая конструкция как раз получается тем самым мостиком между мирами, которого нам так не хватало. Если в какой-то конкретной ситуации нам удалось абстрагироваться от информационных аспектов сигнала (что чаще всего не составляет особого труда), мы получаем возможность рассуждать об участии материальных объектов в информационном процессе. Если при этом нам удалось ещё и контекст рассмотреть во всей полноте его двойственной природы (в наш век информационных технологий это обычное дело), то в результате мы имеем для конкретной ситуации полноценный мостик между материальным и информационным мирами. Надо сразу отметить, что наличие мостика по-прежнему не даёт нам права реифицировать информацию. Сигнал, если он рассматривается как материальный объект, может быть реифицирован (файл записан на флешке, флешка в кармане), но контекст, то есть способность интерпретации сигнала, реифицирован быть не может.

Когда рассматривается классическая с точки зрения теории информации ситуация передачи данных, мы имеем в наличии передатчик, «помещающий» информацию в сигнал и приёмник, «извлекающий» из него информацию. Возникает стойкая иллюзия того, что информация – это нечто, существующее внутри сигнала. Но нужно понимать, что интерпретация специально подготовленного сигнала – далеко не единственный сценарий обретения информации. Обращая внимание на происходящее вокруг, мы получаем очень много той информации, которую нам никто не посылал. Кресло не посылает нам информацию о том, что оно мягкое, стол не посылает информацию о том, что он твёрдый, чёрная краска на странице книги не посылает нам информацию об отсутствии фотонов, выключенное радио не посылает информацию о том, что оно молчит. Мы умеем разбираться в окружающих нас материальных явлениях, и информацией они для нас становятся потому, что у нас заранее есть контекст, позволяющий интерпретировать происходящее. Проснувшись ночью, открыв глаза и ничего не увидев, мы информацию о том, что ещё не рассвело, извлекаем не из присутствующего физического явления, а из его отсутствия. Отсутствие ожидаемого сигнала – тоже сигнал, и его тоже можно интерпретировать. А вот отсутствие контекста не может быть каким-то таким особым «нулевым» контекстом. Если нет контекста, то информации негде возникнуть, сколько бы ни пришло сигнала.

Мы все прекрасно знаем, что такое информация (у существ, обитающих в информационном скафандре, по-другому быть не может), но привыкли считать информацией только ту её часть, которая здесь обозначена как «сигнал». Контекст – штука для нас как-бы сама собой разумеющаяся, и поэтому мы её привычно выносим за скобки. А вынеся за скобки контекст, мы вынуждены всю «информацию» поместить исключительно в сигнал и, таким образом, её немилосердно реифицировать.

Нет ничего сложного в том, чтобы избавиться от реификации «информации». Нужно просто научиться вовремя вспоминать о том, что кроме сигнала всегда есть ещё и контекст. Сигнал – всего лишь сырьё, обретающее смысл (ценность, полезность, значимость и, да, информативность) только при попадании в подходящий контекст. А контекст – это штука, о которой в обязательном порядке следует говорить в нематериальных терминах (иначе это говорение точно не будет иметь смысла).

Давайте вкратце вспомним тему «свойства информации» и оценим, как эти свойства укладываются в двухкомпонентную конструкцию «сигнал-контекст».

  1. Новизна. Если принятие сигнала совсем ничего не добавляет к информационному аспекту уже имеющегося контекста, то события интерпретации сигнала не возникает.

  2. Достоверность. Интерпретация сигнала контекстом не должна давать ложную информацию («правда» и «ложь» – понятия, применимые к информации, но неприменимые к материальным объектам).

  3. Объективность. То же самое, что и достоверность, но с акцентом на то, что сигнал может являться результатом работы другого контекста. Если контекст, пытающегося получить информацию, и контекст-посредник не имеют взаимопонимания (в первую очередь по преследуемым целям), то достоверности информации не будет.

  4. Полнота. Сигнал есть, объективный, достоверный, но контексту для обретения полноценной информации его не достаточно.

  5. Ценность (полезность, значимость). Сигнал есть, а подходящего контекста нет. Все слова понятны, но смысл не улавливается.

  6. Доступность. Характеристика сигнала. Если сигнал добыть невозможно, то даже наличие самого прекрасного подходящего контекста не поможет информации возникнуть. Например, любой легко бы придумал, что можно сделать с точными данными о том, как закончится завтрашний футбольный матч. Но, к сожалению для многих, этот сигнал появится только после окончания матча, то есть тогда, когда его полезность и значимость будут уже далеко не те.

На мой взгляд, перечисленные выше свойства больше напоминают не свойства, а список возможных неисправностей. Свойства – это всё-таки должно быть чем-то таким, что описывает то, что нам можно ждать от рассматриваемого предмета, а на что можно не рассчитывать. Давайте попробуем вывести из конструкции «сигнал + контекст» хотя бы несколько очевидных следствий, которые, собственно, и будут свойствами не конкретно взятой информации, а информации вообще:

  1. Субъективность информации. Сигнал может быть объективен, но контекст всегда субъективен. Следовательно, информация по природе своей может быть только субъективна. Про объективность информации можно говорить только в том случае, если удалось обеспечить единство контекста у разных субъектов.

  2. Информационная неисчерпаемость сигнала. Один и тот же сигнал, попадая в разные контексты, даёт разную информацию. Именно поэтому можно, время от времени перечитывая любимую книгу, каждый раз обретать что-то новое.

  3. Закона сохранения информации не существует. Совсем не существует. Нам нравится, когда предметы, которыми мы оперируем, строго подчиняются законам сохранения и не склонны появляются из ниоткуда, и уж тем более не имеют обыкновения исчезать в никуда. Информация, к сожалению, к таким предметам не относится. Мы можем рассчитывать на то, что законам сохранения может подчиняться только сигнал, но внутри сигнала информации нет и быть не может. Нужно просто свыкнуться с мыслью о том, что в нормальном режиме информация именно приходит из ниоткуда и уходит в никуда. Единственное, что мы можем сделать для того, чтобы её хоть как-то удержать – это позаботиться о сохранности сигнала (что, в принципе, не проблема), контекста (что намного сложнее, поскольку он штука изменчивая) и воспроизводимости ситуации попадания сигнала в контекст.

  4. Информация всегда является полной и безраздельной собственностью того субъекта, в контексте которого она случилась. Книга (физический предмет) может быть чьей-то собственностью, но мысль, рождаемая её прочтением, всегда является безраздельной собственностью читателя. Впрочем, если узаконить частную собственность на души других людей, то можно будет узаконить и частную собственность на информацию. Сказанное, впрочем, не отменяет права автора считаться автором. Особенно, если это правда.

  5. Сигналу не могут быть приписаны характеристики, применимые только к информации. Например, характеристика «истинность» может быть применена только к информации, то есть к сочетанию сигнала с контекстом. Сам сигнал не может быть ни истинным, ни ложным. Один и тот же сигнал в сочетании с разными контекстами может давать в одном случае истинную информацию, а в другом случае ложную. У меня для адептов «книжных» религий две новости: одна хорошая, а другая плохая. Хорошая: их священные книги не являются ложью. Плохая: истины они в себе тоже не содержат.

Для ответа на вопрос «где существует информация?» без применения двухкомпонентной сигнал-контекстной конструкции приходится использовать следующие популярные подходы:

  1. «Информация может существовать в материальных объектах». Например, в книгах. При доведении этого подхода до логической полноты неизбежно приходится признавать существование «инфорода» – тонкой субстанции, присутствующей в книгах помимо волокон бумаги и кусочков краски. Но мы знаем, как изготавливаются книги. Мы точно знаем, что никакая магическая субстанция в них не заливается. Присутствие тонких субстанций в предметах, используемых нами для обретения информации, противоречит нашему повседневному опыту. Сигнал-контекстная конструкция прекрасно обходится без тонких субстанций, но при этом даёт исчерпывающий ответ на вопрос «зачем для чтения книги нужна собственно книга».

  2. «Мир пронизан информационными полями, в тонкую структуру которых записывается всё, что мы знаем». Красивая и весьма поэтичная идея, но если так, то не понятно, зачем для чтения «Гамлета» нужен томик «Гамлета». Он что, работает как антенна, настроенная на специфическую Гамлетовскую волну? Мы знаем, как изготавливаются томики «Гамлета». Нам точно известно, что никаких детекторных схем, настраиваемых на приём потусторонних полей, в них не встраивается. Сигнал-контекстной конструкции не нужны никакие допущения о существовании параллельных невидимых миров. Она прекрасно обходится без этих лишних сущностей.

  3. «Информация может существовать только в наших головах». Очень популярная идея. Самый коварный и живучий вариант реификации. Коварность его объясняется в первую очередь тем, что никакого стройного понимания того, что происходит в наших головах, наука пока не выработала, и во мрак этой неизвестности бывает удобно прятать любые недодумки. В нашем большом и разнообразном мире бывает так, что человек пишет произведение, а потом, не успев никому его показать, умирает. А потом, по прошествии лет, рукопись находят на чердаке, и люди узнают то, о чём ни один из них всё это время не знал. Если информация может существовать только в головах, то как она может перескочить тот период времени, когда нет ни одной головы, которая ею владеет? Сигнал-контекстная конструкция объясняет этот эффект просто и естественно: если сохранился сигнал (рукопись на чердаке) и не окончательно утерян контекст (люди не разучились читать), то информация не потеряна.

Давайте посмотрим, как в идею сигналов и контекстов укладывается то, что происходит при передаче информации. Казалось бы, должно происходить нечто удивительное: на стороне передатчика информация есть, потом передатчик отдаёт приёмнику сигнал, в котором информации нет, и уже на стороне приёмника информация снова есть. Предположим, Алиса намерена попросить Боба что-то сделать. Сразу заметим, что Алиса и Боб совсем не обязательно должны быть живыми людьми. Алиса может быть, например, сервером бизнес-логики, а Боб – сервером базы данных. Суть происходящего от этого не меняется. Итак, Алиса имеет информацию, которая, конечно же, есть внутри неё сочетание сигнала и контекста. Имея эту информацию, а также информацию о том, какие сигналы умеет принимать и интерпретировать Боб, она производит в материальном мире некоторое изменение (например, пишет записку и прикрепляет магнитиком на холодильник или, если Алиса и Боб являются серверами, то задействует сетевую инфраструктуру). Если Алиса не ошиблась насчёт Боба, то Боб принимает сигнал в свой имеющийся у него контекст и обретает информацию о том, чем ему теперь следует заняться. Ключевой момент – общность контекста. Если мы говорим о людях, то общность контекста обеспечивается наличием общего языка и вовлечённостью в совместную деятельность. Если мы говорим о серверах, то общность контекстов реализуется через совместимость протоколов обмена данными. Именно общность контекстов позволяет информации как будто перепрыгнуть тот участок пути, где она существовать не может, и оказаться на стороне приёмника. Вообще говоря, информация, конечно, никуда не прыгает. О том, что Алиса обладает той же самой информацией, что и Боб, можно говорить только в том случае, если они обладают неразличимо одинаковыми сигналами и неразличимо одинаковыми контекстами. В жизни людей такого не бывает. Увидеть зелёный цвет так же, как его видит другой человек, невозможно, но возможно между собой договориться, что такой цвет мы между собой будем обозначать сигналом «зелёный».

Сигнал-контекстная конструкция – не совсем новость для мировой философии. Ещё 250 лет тому назад Иммануил Кант писал о том, что «наше знание (информация?) хоть и проистекает из опыта (сигнал?), но совершенно невозможно без наличия у познающего субъекта априорного знания (контекст?)».

Измерение информации


Измерение информации в битах – любимое дело. Невозможно отказать себе в удовольствии порассуждать об этом, попутно примерив методику подсчёта к ставшей нам известной и, надеюсь, понятной сигнал-контекстной конструкции.

Если вспомнить классическую теорию информации, то обобщённая формула, по которой вычисляется количество информации (в битах), выглядит следующим образом:

где n – количество возможных событий, а pn – вероятность n-го события. Давайте подумаем, что в этой формуле к чему с точек зрения приёмника и передатчика. Передатчик может рапортовать, например, о ста событиях, из которых первое, второе и третье имеют вероятность по 20%, а оставшиеся 40% равномерно размазаны по остальным девяноста семи событиям. Нетрудно посчитать, что количество информации в рапорте об одном событии с точки зрения передатчика равно примерно 4.56 бит:
I = — (3 × 0.2×log2(0.2) + 97 × (0.4/97)×log2(0.4/97)) ≈ — (-1,393156857 — 3,168736375) ≈ 4.56

Не удивляйтесь, пожалуйста, дробному результату. В технике, конечно, в таких случаях приходится округлять в большую сторону, но точная величина тоже часто бывает интересна.

Если приёмник ничего не знает о распределении вероятностей (а откуда ему знать?), то с его точки зрения количество получаемой информации равно 6.64 бит (это тоже можно легко посчитать по формуле). Теперь представим себе ситуацию, что для нужд приёмника интересны только события номер 1 («казнить»), 2 («помиловать») и 100 («наградить орденом»), а всё остальное – это не интересное «прочее». Допустим, у приёмника уже есть статистика по предыдущим эпизодам, и он раскладки вероятностей знает: казнить – 20%, помиловать – 20%, наградить орденом – 0.4%, прочее – 59.6%. Считаем, получаем 1.41 бит.

Разброс получился существенный. Давайте поищем объяснение этому феномену. Если вспомнить, что информация – это не есть только лишь один объективно существующий сигнал, а сочетание «сигнал + контекст», то становится совсем не удивительно, что количество информации, возникающей при получении сигнала, также должно получаться контекстно-зависимым. Таким образом, имеем неплохое согласование сигнал-контекстной концепции с математической теорией информации.

Величина «I», вычисляемая через рассмотренную формулу, обычно используется для решения следующих задач:

  1. Для конструирования среды передачи данных. Если задача кодирования сформулирована как «отдать всё, что есть, но сделать это максимально эффективно», то при решении её для случая, описанного в рассмотренном примере, нужно ориентироваться на величину 4.56 бит. То есть постараться сделать так, чтобы в среднем миллион циклов передачи максимально близко укладывался в 4 561 893 бит. На то, что получится ужаться в меньший объём, рассчитывать не стоит. Математика неумолима.

  2. Для понимания, насколько уменьшается неопределённость получателя при поступлении сигнала. Считается, что поступление информации уменьшает информационную энтропию приёмника на величину своего количества. Если рассматривать количество информации в этом смысле, то правильными ответами в зависимости от свойств приёмника будут 6.64 и 1.41 бит. Величина 4.56 тоже будет правильным ответом, но только в том случае, если приёмнику интересны все события и ему заранее известны их вероятности.

В подавляющем большинстве случаев, когда мы говорим о битах, байтах, мегабайтах или, например, гигабитах в секунду, мы ориентируемся на первую трактовку. Нам всем гораздо больше нравится пользоваться широкополосным Интернетом, чем чахлым dial-up-соединением. Но иногда бывает так, что нам приходится полдня просидеть в Интернете, прочитать гору текстов и просмотреть кучу видеороликов только для того, чтобы наконец-то получить на интересующий нас вопрос простой бинарный ответ в стиле «да или нет». При этом наша неопределённость уменьшается не на те десятки гигабайт, которые нам пришлось к себе прокачать, а всего лишь на один бит.

Энтропийная трактовка природы информации вызывает больше вопросов, чем даёт ответов. Даже с чисто житейской точки зрения мы видим, что минимальная неопределённость наблюдается у тех сограждан, которые не прочитали ни одной книжки, и все познавательные контакты которых с внешним миром ограничиваются просмотром телесериалов и спортивных передач. Эти уважаемые субъекты пребывают в полной счастливой определённости по всем мыслимым вопросам мироздания. Неопределённость появляется только с расширением кругозора и приобретением пагубной привычки задумываться. Ситуация, когда получение информации (чтение хороших умных книжек) увеличивает неопределённость, невозможна с точки зрения энтропийной теории информации, но с позиций сигнал-контекстной теории это вполне рядовое явление.
Действительно, если результатом принятия сигнала становится формирование нового контекста, то для его прокорма нам нужны всё новые и новые сигналы, которые удовлетворят этот контекст, но побочным действием могут сформировать новый первозданно голодный контекст. Или даже несколько.

Не меньше удивления вызывают рассуждения о том, что информация может быть как-то связана с упорядоченностью (если энтропия – это мера хаоса, то негэнтропия, то есть информация, должна быть мерой упорядоченности). Давайте рассмотрим следующие последовательности нулей и единиц:

  1. 0000000000000000000000000000000000000000. Идеальный порядок в стиле «мечта хозяйки». Но информации здесь нет, как нет её на чистом листе бумаги или только что отформатированном жёстком диске.
  2. 1111111111111111111111111111111111111111. По сути, то же самое.
  3. 0101010101010101010101010101010101010101. Уже интереснее. Порядок остался идеальным, информации по-прежнему не густо.
  4. 0100101100001110011100010011100111001011. Это я не поленился побросать монетку. 0 – орёл, 1 – решка. Бросать старался честно, и поэтому можно предположить, что получился идеальный беспорядок. Есть ли здесь информация? А если да, то о чём? Напрашивается ответ «обо всём», но если так, то как её извлечь в пригодном к использованию виде?
  5. 1001100111111101000110000000111001101111. Аналогично монетке, но только через генератор псевдослучайных чисел.
  6. 0100111101110010011001000110010101110010. Тоже похоже на такую же случайную ерунду, но это не она. Ниже скажу, что это.

Если убрать текстовые комментарии и загадать загадку, что из этого могло быть результатом бросания монетки, то первые три варианта отпадут сразу. 5-й тоже под подозрением, потому что единиц больше, чем нулей. Это неправильное рассуждение. При честном бросании монетки выпадение всех этих вариантов имеет одинаковую вероятность, равную 2-40. Если я продолжу бросать монетку без сна и отдыха в надежде воспроизвести хотя бы один из шести представленных вариантов, то можно ожидать, что если мне повезёт, примерно через сто тысяч лет мне это удастся. Но какой конкретно из этих вариантов воспроизведётся первым, предсказать невозможно, поскольку они все равновероятны.

Шестым пунктом, кстати, представлено слово «Order» (то есть «порядок») в восьмибитном ACSII-коде.

Получается, что информации нет ни в идеальном порядке, ни в идеальном беспорядке. Или всё-таки есть? Представьте себе, что идеально беспорядочная последовательность нулей и единиц (№4), получена путём бросания монетки не мной, а сотрудником шифровального центра вражеской армии, и сейчас используется как кусок секретного ключа, которым шифруются депеши. В этом случае эти нолики и единички сразу перестают быть бессмысленным цифровым хламом, и сразу становятся суперважной информацией, за которую дешифровальщики будут готовы продать душу. Ничего удивительного: сигнал обрёл контекст, и, таким образом, стал весьма информативным.

У меня нет ни малейшего желания утверждать, что энтропийная теория информации полностью не верна. Есть ряд узкоспециальных применений, в которых она даёт адекватный результат. Нужно просто чётко понимать границы её применимости. Можно предположить, что одним из ограничений должно стать требование, чтобы принимаемый сигнал не приводил к формированию контекста. В частности, этому критерию соответствует большинство средств связи. О выделении сигнала из шума действительно можно говорить как о борьбе с энтропией.

Измерение информации имеет ещё один аспект, о котором лучше не забывать. Результатом любого единичного измерения является число. В нашем случае это биты, байты, гигабайты. Получив число, мы обычно рассчитываем на то, что дальше сможем им привычным нам образом оперировать. Сравнивать на «больше/меньше», складывать, умножать. Рассмотрим два примера применения операции «сложение» к количествам информации:

  1. Есть две флешки. Первая – 64 ГБ, вторая – 32 ГБ. Итого у нас есть возможность записать на них 96 ГБ. Всё так, всё честно и корректно.

  2. Есть два файла. Первый – 12 МБ, второй – 7 МБ. Сколько у нас всего информации? Рука тянется сложить и получить 19 МБ. Но не будем спешить. Для начала скормим эти файлы архиватору. Первый файл сжался до 4 МБ, второй до 3 МБ. Можем ли мы теперь сложить числа и получить суммарный истинный объём имеющихся данных? Я бы предложил не спешить и посмотреть глазами на содержимое исходных файлов. Смотрим и видим, что всё содержимое второго файла имеется в первом файле. Получается, что размер второго файла вообще нет смысла прибавлять к размеру первого. Если бы первый файл был другим, тогда сложение имело бы смысл, но в данном конкретном случае второй файл ничего к первому не прибавляет.

С точки зрения количества информации очень интересной получается ситуация с квайнами – программами, одной из функций которых является выдача собственного исходного кода. Кроме этой функции такая программа может содержать в себе что-нибудь ещё: какой-нибудь полезный алгоритм, тексты, изображения и тому подобное. Получается, что внутри программы есть это «что-то ещё», и в довесок к этому, есть она же сама, внутри себя содержащая ещё раз всю саму себя целиком плюс то самое «что-то ещё». Это можно выразить вот такой формулой: A = A+B, где B не равно нулю. Для аддитивных величин такое равенство существовать не может.

Таким образом, с количеством информации получается очень странная ситуация. Можно сказать, что количество информации – условно-аддитивная величина. То есть в некоторых случаях мы имеем право складывать имеющиеся числа, а в некоторых – нет. Когда речь идёт о ёмкости канала передачи данных (в частности, флешка вполне может рассматриваться как канал передачи данных из прошлого в будущее), то сложение корректно, а при «взвешивании» конкретного сигнала мы получаем величину, возможность сложения которой с другими ей подобными величинами определяется внешними факторами, о существовании которых мы можем даже не знать. Например, об информационной ёмкости генома человека (ДНК можно рассматривать как среду передачи данных, и, насколько мне известно, есть группы исследователей, пытающиеся сконструировать накопители на основе ДНК) говорить можно, и она равна примерно 6.2 Гбит, но любой ответ на вопрос «сколько информации записано конкретно в моём геноме?» будет бессмысленным. Максимум, что можно утверждать – это то, что какая бы методика подсчёта ни была применена, результат не может превышать те самые 6.2 Гбит. Или, если реальность вдруг такова, что нужно учитывать не только последовательность нуклеотидных оснований, то может. Если же говорить об общем количестве информации, содержащейся в живой клетке, то, по-видимому, ответ на этот вопрос вообще не может быть получен в силу хотя бы того, что сама по себе клетка является живым существом, а не средой передачи данных.

В завершение темы «измерение информации» хотелось бы ввести понятие «класс информативности», позволяющий оценить объём информации если не количественно, то хотя бы качественно:

  1. Конечная информативность – ситуация, когда весь необходимый контексту сигнал может быть закодирован дискретной последовательностью конечной длины. Именно для таких ситуаций применимо измерение информации в битах. Примеры:

    • Текст «Гамлета».
    • Все дошедшие до нас тексты, когда-либо сочинённые человечеством.
    • Информация в геноме.

    Имеющиеся сейчас информационные технологии работают именно с конечными информативностями.

  2. Бесконечная информативность – ситуация, когда для кодирования сигнала требуется дискретная последовательность бесконечной длины, и любое ограничение («сжатие с потерями») до конечной длины неприемлемо. Пример: данные о положении шаров, которые нужно сохранять при идеальном моделировании бильярда с тем, чтобы если потом запустить процесс в обратном направлении, сложилась исходная позиция. В данном случае скорости и положения шаров нужно иметь с бесконечной точностью (бесконечное количество знаков после запятой) так как в силу имеющихся сильных нелинейностей ошибка в любом знаке имеет свойство накапливаться и приводить к качественно другому результату. Аналогичная ситуация возникает при численном решении нелинейных дифференциальных уравнений.

    Несмотря на кажущуюся запредельность, нет никаких фундаментальных причин тому, чтобы с развитием технологий мы не обрели средства, позволяющие работать с бесконечными информативностями.

  3. Неразрешимая информативность – ситуация, при которой требуемые данные не могут быть получены никаким способом в силу фундаментальных ограничений либо физического, либо логического характера. Примеры:

    • Невозможно узнать, что вчера произошло на звезде, удалённой от нас на 10 световых лет.
    • Невозможно одновременно с абсолютной точностью узнать импульс и положение частицы (квантовая неопределённость).
    • Находясь в ситуации принятия решения, субъект не может заранее знать, какое конкретно из имеющихся альтернатив решение он примет. В противном случае (если ему решение известно) он не находится в ситуации принятия решения.
    • Полное детерминистическое описание Вселенной не может быть получено никаким образом. Против этого работает сразу весь комплекс фундаментальных ограничений – и физических, и логических. Плюс к ним добавляются эффекты, связанные с парадоксом брадобрея.

    Если по поводу физических ограничений ещё остаётся некоторая надежда на то, что уточнение картины реальности позволит перевести некоторые казавшиеся неразрешимыми информативности в конечные или хотя бы в бесконечные, то логические ограничения не могут быть преодолены ни при каком развитии технологий.

«Информация» в физике


Исторически связь темы «информация» с темой «энтропия» возникла из рассуждений о демоне Максвелла. Демон Максвелла – фантастическое существо, сидящее возле дверцы в стенке, разделяющей две части камеры с газом. Когда слева прилетает быстрая молекула, он дверцу открывает, а когда медленная – закрывает. А если справа прилетает быстрая, он дверцу закрывает, но если медленная – открывает. В результате слева скапливаются медленные молекулы, а справа – быстрые. Энтропия замкнутой системы растёт, и на генерируемой демоном разнице температур мы к своему удовольствию можем запустить вечный двигатель второго рода.

Вечный двигатель невозможен, и поэтому для того, чтобы привести ситуацию в соответствие с законом сохранения энергии, а заодно в соответствие с законом неубывания энтропии, пришлось рассуждать следующим образом:

  1. Когда работает демон, энтропия газа уменьшается.
  2. Но при этом, поскольку молекулы взаимодействуют с демоном, газ не является изолированной системой.
  3. В качестве изолированной системы нужно рассматривать систему «газ + демон».
  4. Энтропия изолированной системы не может уменьшаться, поэтому энтропия плюс энтропия демона не уменьшается.
  5. Из этого следует, что энтропия демона растёт.

Пока всё логично. Но что может значить «энтропия демона растёт»? Демон получает информацию (работаем пока в традиционной терминологии) о приближающихся молекулах. Если информация – это отрицательная энтропия, то энтропия демона должна уменьшаться, а не расти. Предположим, что демон выполняет нехитрое умственное усилие, и через механизм дверцы передаёт информацию на летящую молекулу (или, как вариант, не передаёт). Отрицательная энтропия возвращается в молекулу, и тем самым уменьшает энтропию газа. Но почему растёт энтропия демона? Почему мы учитываем только исходящий от демона информационный поток, но не учитываем входящий? Что будет, если демон не будет забывать сразу о том, какие сигналы он получил от прилетающих молекул, а будет их запоминать? Можно ли в этом случае говорить о том, что энтропия демона не увеличивается?

Норберт Винер, рассматривая демона Максвелла («Кибернетика») пишет, что вечный двигатель собрать на этой штуке не получится, потому что рано или поздно возрастающая энтропия демона достигнет критического предела, и демон испортится. В принципе, это логично, но вряд ли порчу демона следует объяснять тем, что он раздаст свою изначальную мудрость молекулам, и сам станет глупым. С информационной точки зрения работа демона очень простая и нудная. Ни о какой «растрате душевных сил» говорить не приходится. Точно так же мы не говорим, что, например, каждый пропускаемый через программу архиватора файл увеличивает энтропию архиватора и тем самым постепенно снижает его способность сжимать данные. Скорее всего, невозможность вечного двигателя на демоне Максвелла должна объясняться не информационно-технологическими соображениями, а тем, что энергетический выигрыш от манипулирования молекулой не может превышать энергетические затраты на выяснение параметров подлетающей молекулы плюс затраты на манипулирование дверцей.

Формулы, по которым считаются термодинамическая и информационная энтропии в целом похожи. Термодинамическая энтропия (сравните с формулой (1) выше):

где pi – вероятность i-го состояния, а kB – постоянная Больцмана. Но данная формула неизбежно завязана на то, что существует субъект, который проклассифицировал состояния и выделил конечное количество интересующих его групп. Если попытаться избавиться от заинтересованного субъекта, то можно обнаружить, что есть высокий риск того, что правильным образом выражение должно быть записано так:

При этом общая вероятность равна 1 (система обязательно находится в каком-то из состояний):

Бесконечное количество возможных состояний гораздо ближе к правде жизни, чем конечное. Нетрудно показать, что если в рассматриваемой системе не стремится к нулю процент состояний x, у которых вероятность px не равна нулю, интегральная энтропия стремится к бесконечности. В терминах формулы (2):

Таким образом, если верно предположение о том, что операция интегрирования здесь уместна (а для этого достаточно всего лишь того, чтобы хотя бы одна из физических величин обладала свойством непрерывности), то «информационная» ёмкость практически любой (т.е. кроме вырожденных случаев) материальной системы оказывается неограниченной. Это уничтожает любой смысл приравнивать информационную энтропию термодинамической. Похожесть формул можно списать на то, что в нашем мире есть много принципиально разных вещей, выражаемых похожими формулами. Есть и другие аргументы в пользу соответствия термодинамической и информационной энтропий, но, насколько мне известно, они либо никогда не подвергались экспериментальной проверке, либо (как, например, принцип Ландауэра) сами выведены из предположения о равенстве энтропий.

Говоря о связи темы «информация» с физикой, нельзя не упомянуть о понятии «квантовая информация». Законы квантовой механики таковы, что в некоторых случаях, описывая происходящее, действительно имеет смысл пользоваться информационными терминами. Например, согласно принципу неопределённости Гейзенберга, мы можем узнать точно либо импульс частицы, либо её положение. Из этого возникает иллюзия, что, проводя измерение, мы можем получить не больше некоего максимального объёма информации. Из этого как-бы автоматически следует вывод, что внутри частицы может существовать информация, притом её объём строго лимитирован. Ничего не могу сказать о продуктивности или контрпродуктивности такого использования информационных понятий, но есть сильное подозрение, что протянуть мостик между сугубо физическим понятием «квантовая информация» и той информацией, которой мы оперируем на макро-уровне (например, «Гамлетом»), не просто трудно, а вовсе невозможно.

Для передачи нашей макро-информации мы используем не только физические предметы и явления, но также и их отсутствие. Текст в книге кодируется не только веществом краски, но и неокрашенными промежутками (с равномерно окрашенного листа ничего прочитать невозможно). Можно также легко придумать массу ситуаций, когда очень важный сигнал передаётся не энергетическим воздействием, а его отсутствием. Я ещё готов представить себе, что внутри частицы содержится некая загадочная субстанция, которая и является информацией, но представить себе, что внутри отсутствия частицы тоже содержится информация – это что-то совсем противологичное.

На текущем уровне развития знаний о том, как устроен наш мир, мне кажется, что к понятию «квантовая информация» следует относиться примерно так же, как к понятию «цвет», используемому применительно к кваркам. То есть да, «квантовую информацию» вполне можно и нужно признать ценной концепцией, но при этом следует чётко понимать, что к той «информации», о которой мы говорим во всех остальных случаях, она может иметь только косвенное отношение. Возможно, конфликт можно разрешить тем соображением, что физика вполне может продуктивно изучать материальную основу передаваемого сигнала (в частности, давать ответ о максимально возможной ёмкости канала передачи данных), но наличие сигнала – хоть и необходимое, но не достаточное условие того, чтобы мы имели право говорить о том, что в рассматриваемом объекте присутствует информация.

Нужно чётко понимать, что физическую основу информации (некий аналог флогистонной теории, но только применимый не к теплоте, а к информации) мы не имеем не потому, что ещё не всё знаем, а потому, что её в принципе быть не может. Одним из самых существенных требований естественнонаучного метода, наиболее чётко и последовательно применяемого именно в физике, является изгнание из изучаемого явления наделённого свободой воли действующего субъекта. Субъект (так называемый «имплицитный наблюдатель»), конечно, должен быть рядом с рассматриваемым явлением, но он не в праве ни во что вмешиваться. Механистичность исследуемых явлений, то есть тотальное отсутствие целенаправленной деятельности – это то, что делает физику физикой. Но как только мы начинаем говорить об информации, мы никак не можем уйти от того, что получаемые субъектом сигналы являются сырьём для принятия решений. Имплицитному наблюдателю физических явлений должно быть всё равно, что наблюдать, а действующему субъекту, живущему одновременно и в материальном мире, и в информационной реальности, «всё равно» быть в принципе не может. Из этой диаметральной противоположности требований, предъявляемых к субъекту, помещаемому внутрь исследуемых явлений, следует, что явление «информация» не может быть сведено ни к каким физическим явлениям, включая даже те, которые ещё не открыты.

Что особенно удивительно, у материалистов с идеалистами достигнут прекрасный консенсус по вопросу о необходимости существования глубинной физической «информации». Материалистам это на руку тем, что физика таким образом достигает тотальности описания реальности (не остаётся ничего, что не является физической реальностью). А идеалисты празднуют победу потому, что таким образом их «дух» официально признаётся основой мироздания. Оба издавна враждующих лагеря празднуют победу, но скорее не друг над другом, а над здравым смыслом. И материалисты, и идеалисты весьма агрессивно реагируют на любую попытку связать материальный и идеальный миры любым альтернативным банальной реификации способом.

Данные


Как говорилось выше, сигнал можно рассматривать не только материальный объект, но и объект нематериальный. Согласно принципу тотальности физической реальности, сигнал, конечно, обязан иметь физическое воплощение, но сплошь и рядом случаются ситуации, когда физическая сторона сигнала нас вообще не интересует, а интересует лишь нематериальная составляющая. В таких случаях мы полностью абстрагируемся от физики сигнала, и в результате для дальнейших рассуждений у нас остаётся весьма странный предмет. Физику мы отбросили, а о наличии внутри этого предмета информации по-прежнему говорить нельзя, поскольку это всего лишь сигнал, и для того, чтобы возникла информация, для него нужен контекст. Такие объекты будем называть данными. Данные – это нематериальный сигнал. Нематериальный он не потому, что имеет какую-то потустороннюю природу и путешествует через тонкие астральные сущности, а потому, что в данном конкретном случае нам оказалось не важно, как именно он путешествует. Например, томик «Гамлета» в красивом переплёте, да её и какого-нибудь раритетного издания – это сигнал, в котором нам интересна и материальная, и нематериальная составляющие. Но если нужно просто освежить в памяти монолог «быть или не быть», то мы ищем текст, и нам не важно, где его найдём. Годится и бумажная книжка, и файл на флешке, и сервис сетевой библиотеки. Текст «Гамлета» – это данные, а томик подарочного издания «Гамлета» – уже не только они.

Особый интерес представляет случай объекта, для которого не только физика не существенна, но ещё и подходящий контекст отсутствует. Представьте себе надпись на незнакомом языке (я китайского не знаю, поэтому пусть это будет китайский). Мне хочется узнать, что эта надпись означает, и поэтому я беру листочек и аккуратно перерисовываю иероглифы. Просто копирую все чёрточки и закорючки. Для меня это всё именно чёрточки и закорючки. Смысл изображённого появится только после того, как я покажу этот листочек тому, кто владеет китайским языком, и он переведёт надпись на какой-нибудь более понятный мне язык. А пока этого не случилось, я на листочке имею информационный объект, который определённо есть сигнал, но сигнал для отсутствующего в данный момент контекста.

В случае с копированием китайских иероглифов я мог бы не утруждать себя перерисовыванием данных (это именно данные) на бумажку, а сфотографировать на телефон и послать своему знакомому по почте. По ходу путешествия этого сигнала к моему другу отсутствие контекста для интерпретации этой надписи наблюдалось бы не только у меня, но и у программного обеспечения телефона, почтовой программы и всего того великолепия протоколов Интернета, которые поучаствовали бы в передаче данных. Можно было бы сказать, что вообще такая вещь, как понимание, свойственно исключительно нам, сверхсложным существам из плоти и крови, но это будет не совсем правда. Например, при передаче картинки с иероглифами транспортный уровень сети дополнит передаваемые данные своими служебными данными, которые понятны (то есть будут правильно проинтерпретированы) тем механизмам, которая реализует транспортный уровень сети передачи данных. Если предположить, что понимание – это совсем не обязательно что-то загадочное и высокое, проникновенным взором усматривающее самую суть явлений, а всего лишь наличие адекватного контекста (в случае транспортного уровня сети этот контекст формируется тем, что разработчики сетевой инфраструктуры чтут протокол TCP), то можно уверенно говорить о том, что технические системы у нас тоже наделены способностью к пониманию. Да, это понимание не очень похоже на наблюдаемую нами изнутри самих себя нашу способность ухватывать суть явлений, но дела это не меняет.

Понятие «данные» хоть и не привносит ничего принципиально нового в метафизику информации, но, тем не менее, с практической точки зрения оказывается на редкость полезным. Двухкомпонентная конструкция «сигнал-контекст» хоть и обладает полнотой (третья компонента не нужна), но при попытке применить её в повседневной жизни, сразу возникает масса неудобств. Источник неудобств – в том, что понятие «сигнал» чётко ассоциируется с материальной стороной процесса, а когда материальную сторону приходится игнорировать, «заземляющая» сила «сигнала» начинает сильно мешать. Представьте себе, что ваш товарищ собирается совершить путешествие в Бремен и спрашивает вас, как бы ему можно было узнать побольше об этом городе. Первое, что вам приходит на ум – это Википедия. Посмотрев по разным языковым разделам, вы замечаете, что русскоязычная статья хоть и хорошая, но очень маленькая, а англоязычная хоть и значительно длиннее, но всё же уступает статье на немецком языке (что ничуть не удивительно). Теперь вам нужно сказать своему товарищу, что в англоязычной статье информации больше, чем в русскоязычной, но тут вы, вспомнив философию информации, понимаете, что информации не может быть ни в каком из разделов. Статья в Википедии – это сигнал, который становится информацией, когда попадает в контекст. Проблема. «Сигнал, записанный на жёстких дисках англоязычных серверов Википедии при попадании в контекст твоего восприятия…» – фу, жуть какая. Как товарищу добраться своим контекстом до этих жёстких дисков? «Сигнал, доставленный через Wi-Fi с англоязычных серверов…» – тоже что-то не то. При чём здесь Wi-Fi, если товарищ с таким же успехом может пойти в Википедию через мобильный Интернет? При замене понятия «сигнал» синонимом «данные» (в данном случае получается именно синоним) все неудобства исчезают. «Можешь посмотреть в Википедии, но имей в виду, что в английской, и особенно в немецкой статье данных про Бремен значительно больше». Воспользовались тем, что хоть, как мы теперь знаем, информации в статье быть не может, но данные – это, собственно, и есть статья. Сигнал, физическая реализация которого в данном конкретном случае нам не важна.

По своей практике скажу, что, поэкспериментировав с переходом на корректную терминологию в повседневной жизни и профессиональной деятельности (информационные технологии), я ни разу не столкнулся с тем, чтобы кто-то из моих собеседников вообще заметил, что что-то поменялось. Единственное, что теперь приходится обращать внимание на то, о чём идёт речь – о данных, или всё же об информации. Например, в базе данных теперь хранится не информация, а именно данные, но пользователи, занося эти данные в базу, таким образом обмениваются информацией. Система по-прежнему остаётся информационной, но функционирует на основе накапливаемых данных.

С развитием сетей передачи у нас появился достаточно простой критерий, позволяющий определить, имеем ли мы право полностью абстрагироваться от физики конкретного объекта и, в результате, говорить о нём как об информационном объекте (то есть о данных). Критерий такой: если предмет мы можем передать через Интернет, значит, мы имеем полное право говорить об этом объекте как об объекте информационном.

Примеры:

  • Котлета – не информационный объект, поскольку она нам интересна (вкусна и питательна) именно в своём физическом воплощении.
  • Рецепт приготовления котлеты – информационный объект. Его можно передать без потерь через Интернет. Со всеми подробностями и тонкостями, с картинками, и даже с видео.
  • Монета – не совсем информационный объект. Особенно, если она имеет нумизматическую ценность.
  • Деньги – информационный объект. Многим из нас, в том числе и мне, приходилось платить через Интернет. Вообще, деньги – это чрезвычайно интересный с точки зрения философии информации объект. Возможно, вы помните сказанное выше, что информация не подчиняется законам сохранения, но для того, чтобы деньги работали, подчиняться закону сохранения они должны. Поэтому для информационных объектов «деньги» искусственно создана такая инфраструктура, которая целенаправленно блюдёт баланс «если где-то прибавилось, значит, где-то обязательно ровно столько же убавилось». К обсуждению феномена денег мы ещё вернёмся, когда будем обсуждать субъектов и системообразование.

Для чистоты терминологии, конечно, лучше было бы говорить не об «информационном», а о нематериальном объекте. Но термин «информационный» намного удобнее, поскольку в нём отсутствует частица «не».

Обращаю внимание на то, что рассмотренное простое эмпирическое правило идентификации информационного объекта имеет структуру «если-то», и поэтому работает только в одну сторону. То есть из того, что мы что-то никак не можем передать через Интернет, вовсе не следует того, что объект не является информационным. Например, мы не можем в «живом» виде (то есть в виде последовательности цифр) передать число пи. Мы можем передать рецепт приготовления этой «котлеты» (то есть программу, последовательно вычисляющую знаки после запятой числа пи), можем передать картинку с обозначением, но саму эту «котлету» – не можем.

Информация в числе пи


Коль скоро зашла речь о числе пи, имеет смысл разобрать один забавный кейс, связанный с этой штукой.

Поговаривают, что среди цифр, составляющих бесконечно длинный хвост числа пи теоретически можно отыскать любую наперёд заданную последовательность цифр. Если быть совсем точными, то это пока всего лишь гипотеза, не доказанная и не опровергнутая. Существуют действительные числа, обладающие свойством содержать в себе любую конечную последовательность цифр (они называются «нормальными»), но гипотеза о том, что число пи является нормальным, пока не доказана. В частности, нормальное число, содержащее любую последовательность нулей и единиц, можно получить, последовательно дописывая в хвост после десятичной точки переборы всех комбинаций, постепенно наращивая разрядность. Вот так:
0,(0)(1)(00)(01)(10)(11)(000)(001)(010)(011)(100)(101)(110)(111)(0000)… и так далее.

В десятичном виде получится число чуть больше 0.27638711, и в этом числе гарантированно присутствует содержимое любого файла с вашего жёсткого диска, даже того, который вы ещё туда не записали.

Но мы зажмуримся на то, что нормальность числа пи не доказана, и будем в своих рассуждениях считать его нормальным. Число пи покрыто массой историй, загадок и предрассудков, и поэтому о нём рассуждать интереснее, чем о какой-то немудрёной алгоритмической выдаче. Если вам доставляет неудобство допущенная математическая погрешность, просто считайте, что дальше здесь я говорю не о числе пи, а о любом нормальном по основанию 2 числе.

Получается весьма величественная картина. Представьте себе, что вы на склоне лет сядете, напишете свою подробную биографию, и запишете её в файл. Так вот, выходит, что в числе пи эта последовательность нулей и единиц есть уже сейчас. А также есть такая же последовательность, но дополненная точной датой и обстоятельствами вашей смерти. Вот уж поистине получается книга судеб, не правда ли?

Начало нашей книги судеб (целая часть и первые 20 знаков бесконечного хвоста) выглядит так:
11.00100100001111110110…

Давайте подумаем, как такую книгу судеб можно было бы прочитать. Допустим, я написал свою биографию вплоть до текущего момента, взял вычислитель фантастической мощности и заставил его найти имеющееся начало моей биографии среди знаков числа пи. Глупо рассчитывать на то, что первое попавшееся вхождение имеет осмысленное продолжение. Скорее всего, там дальше идёт бессмысленная мешанина нулей и единиц. Немножко поколдовав над алгоритмом вычислителя, я научил его находить не только вхождения известной части биографии, но и анализировать, является ли продолжение осмысленным текстом, написанным примерно в том же стиле. И вот наконец мой вычислитель нашёл такой фрагмент. Уж не знаю, обрадует он меня или опечалит, но я не буду останавливать вычислитель. Пусть он продолжит свою работу. Через какое-то время он меня завалит ворохом найденных в числе пи версий моей дальнейшей биографии. Некоторые будут вполне обычными («работал, вышел на пенсию тогда-то, состарился, болел тем-то, умер тогда-то»), но остальные будут намного интереснее. Например, в одной из версий будет о том, что завтра, не раньше ни позже, случится глобальный зомби-апокалипсис, и меня растерзают кровожадные мертвецы. А в другой обязательно (в числе ведь есть все комбинации ноликов и единичек) будет написано, что я обрету бессмертие и всемогущество, и стану повелителем Вселенной. И ещё бесконечное множество вариантов, нескончаемым потоком выползающих из вычислителя. Какой из этих версий верить? Может быть, самой первой? А почему именно ей?

Для того чтобы упростить себе задачу, попробуем погадать на числе пи немножко попроще. Зададим ему простой бинарный вопрос. Например, выгодно ли мне будет именно сегодня прикупить присмотренный пакет акций? Если первой в дробной части числа пи найдётся единичка, то, значит, всеведущий оракул ответил мне, что выгодно. Если нолик, то это значит, что нужно подождать. Смотрим. Нолик встретился прямо в первой позиции, а единичка, вон, аж даже не во второй, а в третьей. Ой, что-то мне подсказывает, что с таким оракулом я в своей жизни ни одной акции не куплю. К этому бы оракулу ещё бы приложить какого-нибудь дополнительного оракула, который подсказывает, в какую позицию следует смотреть.

Получается, что для извлечения информации из данных книги судеб нам не хватает самой малости – ключика, который подскажет, с какой конкретно позиции следует эту книгу читать. А без ключика единственная информация, которая для нас содержится в бесконечном хвосте цифр числа пи – это отношение длины окружности к диаметру. Как-то даже грустно получается…

Итоги главы


В этой главе при помощи двухкомпонентной конструкции «сигнал-контекст» мы научились не только избавляться от реификации «информации», но и получили инструмент, позволяющий без задействования мистических практик протягивать мостик между материальным и нематериальным аспектами реальности.

Основные рассмотренные понятия и концепции:

  1. Информация как сочетание сигнала и контекста.
  2. Сигнал как некое обстоятельство, которое может быть проинтерпретировано.
  3. Контекст как информация о том, как может быть проинтерпретирован сигнал.
  4. Связь информации и энтропии существует, но её не следует абсолютизировать. В одних ситуациях обретение информации можно рассматривать как победу нах хаосом, в других – наоборот, в третьих – даже невозможно идентифицировать, об упорядочивании чего может идти речь. Наиболее чётко связь с энтропией прослеживается при решении задачи передачи данных через зашумлённый канал, но эта задача – далеко не всё, что нам доводится делать с информацией.
  5. Каждый раз, измеряя информацию, мы должны задаваться вопросом о том, получаем ли мы в результате аддитивную величину. Если получилась не аддитивная величина, то её лучше ни с чем не складывать и ни на что не умножать.
  6. Класс информативности как средство на качественном уровне оценить перспективы получения требуемой информации. Три класса: конечная информативность, бесконечная и неразрешимая.
  7. Информация не может иметь непосредственной физической основы. Любые попытки поиска физической основы информации можно и нужно рассматривать как метастазы реификации. Связь физики с информацией должна осуществляться только через понятие «сигнал».
  8. Данные как сигнал, от материальной составляющей которого можно абстрагироваться. Понятие «данные» хоть и не имеет отдельной философской ценности, но позволяет избавиться от неудобств, вызванных материалистической ориентированностью понятия «сигнал».
  9. Инструментальный приём «может ли оно быть передано через Интернет» для быстрого определения, является ли рассматриваемый предмет информационным объектом.

Дальше будет только интереснее, но если вы не разобрались, как нам при помощи сигналов и контекстов удалось подружить физику с лирикой, вам будет грустно.



Продолжение: Глава 3. Основания
Теги:
Хабы:
+3
Комментарии 75
Комментарии Комментарии 75

Публикации

Истории

Ближайшие события

Московский туристический хакатон
Дата 23 марта – 7 апреля
Место
Москва Онлайн
Геймтон «DatsEdenSpace» от DatsTeam
Дата 5 – 6 апреля
Время 17:00 – 20:00
Место
Онлайн