Философия информационных сред

Ник Пичугин
Инварианту

1.
    Давайте возьмем обыкновенный транзисторный приемник… Где возьмем? Ну, достанем в антикварном магазине – эксперимент-то мысленный… Возьмем приемник, как следует выпотрошим его, тщательно перемешаем детали и загрузим обратно. Нажмем кнопочку. Какова вероятность того, что устройство заговорит человечьим голосом?.. Как следует встряхнем коробочку и повторим попытку… Будем набирать статистику.
    Идея этого межеумочного эксперимента снова и снова приходит мне на ум, когда я размышляю о тупиковой проблеме современной информатики: как совместить статистико-вероятностный подход, начало которому положено Шенноном, – и линейную информатику, которая недаром в прежние (антикварные) времена называлась «теоретической радиотехникой»?
    Конечно, информатика началась не с Фуше и не с Клеточкина – но и не с Шеннона; он лишь удачно упаковал свою идею в подходящее слово – и все сразу стало ясно! мы проснулись в информационном веке. Однако, отправной точкой, без сомнения, следует считать все тот же 1948 год, когда были опубликованы не только доклад Клода Шеннона [3], но и книга Норберта Винера [1]. «Черный ящик» Винера – это, говоря современным языком, информационная система (ИС), которая преобразует сигнал i(1), поступающий на ее «ввод», в сигнал i(2), который она транслирует со своего «вывода» в окружающее пространство, – естественно, информационное. В линейной информатике сигналы i(1) и i(2) изображаются векторами, – то есть, наборами чисел, которые (числа) Ф. Розенблатт называл «весами», и которые есть не что иное как простейшая разновидность информационных кодов.
    Здесь у нас могут возникнуть некоторые разночтения. (Мы ведь иногда путаем слова с понятиями, которые за ними стоят, – так и здесь.) Что считать «информацией»: абстрактный смысл, который несет сигнал i – или его материально реализованный код? Пока что это вопрос вкуса, но по единодушному мнению одного из читателей [7 ], информация – это абстракт (то есть – первое). В «Овеществлении смыслов» автор избрал второе, но настаивать не собирается; и вообще в этом эссе намерен по возможности придерживаться точки зрения этого вышестоящего читателя – просто для того, чтобы доказать (самому себе), что демон «дидактического обскурантизма» не имеет над ним, автором, никакой власти.
    Сигналы на информационную систему могут поступать самые разные (из одного и того же векторного пространства, впрочем), но система не меняется; она определяется своей функцией, преобразуя i(1) в i(2) совершенно определенным и неизменным образом. Эту функцию можно изобразить «оператором трансформации» F (в линейной информатике – матричным). Так что основное и самое элементарное уравнение линейной информатики имеет вид: i(2) = F*i(1). где звездочкой изображен знак умножения (матричного, естественно).
    Это чистая математика. С этого уравнения начинается линейная информатика, наука о внутреннем устройстве информационной системы, в которой (мысленно!) выделяются информационные подсистемы со своими таблицами кодов и операторами трансформации. Подсоединяя друг к другу такие подсистемы (мысленно! чтоб не долбануло), аналитики смотрят (то есть, вычисляют – аналитики же), что получится на конечном выходе. Этим они отличаются от инженеров нейронных сетей, которые сначала делают, а потом думают. Что касается инженеров, то самое обширное практическое применение ЛИ получила в программировании. Любая программа – это линейная ИС; просто потому, что она сначала «вычисляется».
    - Суть этогого метода, - компетентно разъяснил мне один из читателей, - виртуальная декомпозиция (линейной) системы на подходящие для анализа модули и обратная сборка решения полной системы из известных решений для ее частей.- Вот.
    Таким образом, информационная система мыслится как некая среда, в которой (нужным и предсказуемым образом) преобразуется информационный сигнал. Но философия информационных сред с этого только начинается. «Черный ящик» Винера – это только, как говорят электротехники, «участок цепи» [10],  а сама среда – это замкнутый контур, не имеющий ни конца, ни края. Конечно, есть формулы расчета и для участка цепи; ими, в основном, и пользуются для расчета схем – и электротехнических, и радиотехнических. и информационных. Но мы говорим о среде, а не о каком-то ее фрагменте. Откуда-то входящий сигнал приходит, правильно? Куда-то исходящий уходит, верно? И поскольку этот сигнал – информационный, то и среда такая же; а значит, является продолжением нашей ИС, которую мы выделили из нее, из информационной среды, только теоретически. Что она из себя представляет – в целом? и «окружающий» фрагмент за пределами ИС?
    Все информационные процессы – это, можно сказать (многие так и говорят), абстрактный аналог физических; «отражение реальных процессов» в физическом пространстве. Уже хотя бы потому, что любая информация отделима от своего материального носителя только в человеческом воображении – да и то лишь потому, что воображение само является ИС и имеет свой материальный носитель.
    Уж как там наш исходящий сигнал влияет на окружающую физическую среду – другой вопрос; главное, что влияет. И на то имеется отдельный закон природы; и закон, на минуточку, философский. Следовательно, мы (наша ИС, то есть) должны узнать о происходящих изменениях. Но измениться – не значит сообщить об этом. Здесь все зависит от способности приемника информации зарегистрировать такое сообщение. Так что информационная среда каждой ИС продолжается вовне только на те аспекты физического мира, которые воспринимают исходящие коды нашей ИС, нашего «Черного ящика», и транслируют информацию на ее входящих кодах. Все остальное – не существует для ИС, по Оккаму.
    Другими словами, «Внешняя среда» – это тоже ИС со своим оператором трансформации и своими кодовыми таблицами, причем (внимание!) ее входящие коды совпадают с исходящими нашей ИС «Черный ящик», и наоборот («Функциональная совместимость» [9]).  Возможно ли это? Линейная информатика это просто постулирует, это пределы ее применимости. Таким образом, у каждой ИС – свое информационное пространство, которое определяется и измеряется не километрами и килограммами, градусами и амперами, а ее весовыми кодами – входящими и исходящими. В этом сила линейной информатики: задавая ИС. мы тем самым задаем всю ее информационную среду в тотальном информационном пространстве ноосферы – через коды ИС. В этом ее слабость. Потому что описать эту среду линейная информатика способна только как коммуникацию двух информационных систем, замкнутых друг на друга и солидарно стремящихся к равновесию (то есть – отсутствию информационных сигналов).
    Но это может устроить только аналитиков, которые имеют дело с буквами; а инженеров интересуют цифры – все до единого «весовые коэффициенты»  операторов трансформации ИС «Внешняя среда». Понимаете, о чем я говорю, да? Собственно, это и есть основная задача теории управления, которую означенная наука (кибернетика) не решила до сих пор. Смешно сказать, но эта задача не решена даже физиками; что дало повод одному остроумному немцу язвительно назвать физическое пространство «вещью в себе». Все, что мы знаем об окружающем нас материальном мире, все, что мы называем «реальностью», «действительностью», «событиями», «фактами», «материей»… «Вселенной» – все это лишь информация, зарегистрированная нашими органами чувств. (Я ничего не напутал?) Все, что мы имеем – это информация, и только информация.
     Мир, в котором мы живем, полностью определяется сенсорными возможностями человеческого организма. Для сравнения: вселенная дождевого червя – одномерна. А наш мир – четырехмерный. (Мы в четыре раза умнее поэтому.)

2.
     «Рассмотрим тотальный, – следовательно, уникальный – объект U», – как говорил Бруно Понтекорво. – В просторечии именуемый «физическим пространством», или «Вселенной», или «вещью в себе». Всей правды о нем мы не знаем – и, видимо, никогда не узнаем; потому что не имеем и видимо не создадим таких естественных или искусственных сенсоров для того, чтобы зарегистрировать эту правду. Всю. Тем не менее, именно он – и только он (объект U) – является источником информации для нас – вообще всей информации, обо всем: что было, что будет, чем сердце успокоится. Она никуда не исчезает, ей просто некуда деваться оттуда (он же уникальный, U). То есть, отсюда. Поэтому никакого такого «копирования информации» [8] здесь не бывает – это суеверие или метафора: зачем копировать то, что всегда рядом? Другое дело – как его зарегистрировать?
    Человеческой проблемой является регистрация информации – что равнозначно «возникновению» ее в ноосфере. (Это вопрос терминологии.) Для того, чтобы зафиксировать факт, нужен подходящий сенсор в подходящем месте в подходящий момент. Шаг влево – шаг вправо, шаг в прошлое – шаг в будущее… все, нужный информационный повод просто перемешался с «черным» шумом бессмысленной и «серым» шумом ненужной информации (это и есть знаменитая «диссипация») от других источников. И попробуй его потом раскопай. Информация не исчезает – исчезает возможность ее получить. Для того чтобы сохранить информацию в девственной чистоте надолго и не дать ей раствориться в «шуме», человеческая цивилизация придумала «носители информации» (ИС с тривиальной функцией F) – от глиняных табличек Вавилона до современных коммуникаций Сети. Это просто технологическое продолжение и усовершенствование наших естественных органов чувств. Именно благодаря этим достижениям цивилизации мы сегодня все уверенней начинаем различать физическое пространство (как пространство) и информационное (как среду). Мой друг за океаном в информационном отношении буквально рядом – поскольку у меня есть его мобильный номер. И напротив, знакомый в другом городе почти так же далек, как сто лет назад.
    Вот только не надо путать информацию с коммуникацией [8] – релейной или не очень. Информация «возникает» в момент приема [9] и не зависит от того, «сообщает» нам ее кто-то или нет. Информационная система «качает» информацию непосредственно из окружающего физического пространства сообразно сенсорным возможностям своего «ввода». Кстати, они-то, «ввод» и «вывод» (соответственно декодер/кодер у Шеннона), для того и нужны при «Черном ящике», чтобы ему контактировать с окружающей средой посредством своих «сенсоров» и «драйверов», соответственно. А уж на долю самого ЧЯ («управляющей инстанции») приходится чисто информационная функция трансформации очищенного кодированного «текста».
    Давайте будем считаться с тем, что сенсорные (и драйверные) возможности человечества ограничены. «Давайте будем говорить о том, о чем мы будем говорить, – и не будем говорить о том, о чем не будем», – как видите, такое конструктивное понимание принципа Оккама не автору первому пришло в его умную голову. Но и не нашим великим классикам. Допустим, Клаузиус и Больцман просто обобщали теорию паровых машин (ну, допустим!) Но Гиббс уж точно знал, чего хочет, когда предлагал не следовать плохому примеру Лапласа и махнуть рукой на «всю правду» о Вселенной, а ограничиться только тем, что способны зарегистрировать наши научные сенсоры (то есть, приборы). И списать все остальное на вероятность – тем более что и она может быть измерена… или вычислена. Уберите в его предложении ограничительный эпитет «научные» – и вы увидите «статистический» подход к информатике.

    Если неизвестен «оператор трансформации» информационной системы, линейная информатика бессильна. Но для определения информационной среды он (F) не требуется – нужны только коды. И все? Посмотрим, что можно сделать с одними только кодами, предметно поглядим.
    Полная таблица цивилизационных кодов – вещь неподъемная; поэтому различные информационные среды (нации, государства, классы, прослойки, профессии, группы, коллективы, капсулы…) пользуются своими таблицами,  редуцированными и приспособленными к своим узким интересам – но все равно очень обширными. Ну, и конечно, простейшей из кодовых таблиц располагает отдельный индивидуум. (Простейшей!) Ну? И как можно не то чтобы исследовать или описать – а просто хотя бы вообразить все эти среды, даже если знать их кодовые таблицы? (Что тоже проблематично.) Особенно если учесть, что от пространственных координат мы отказываемся (информационное пространство – не физическое).  От пространства – да. Но не от времени.
    Оно и в информатике – основной параметр; более того, только здесь время – настоящее и полноценное. Не то чтобы «вообразить» – мы будем знать об информационной среде решительно все, если узнаем, как кодированный сигнал (каждый сигнал) изменяется со временем при прохождении через эту среду. Это чистая математика, в которую мы здесь вдаваться особенно не будем. А ограничимся простым здравым смыслом (то есть, философией): если основное требование к науке – точная предсказательность, то значит, информатика – это наука о законах изменения информации со временем.
    Эти два понятия связаны неразрывно. Время – это наше субъективное восприятие перемен, чувство причинности. А информация и есть – не более и не менее как – причина всяких перемен. Если мы их не наблюдаем, время для нас останавливается – что бы там ни показывали часы. (И наоборот…) Это и есть состояние «гомеостаза», или «равновесия», или «покоя», или «максимума энтропии» – остановленное мгновение, нирвана, к которой стремится каждая система (на что имеется особый закон – на этот раз физический). И это стремление есть первопричина и перемен, и информации, и времени. Но на самом деле это равновесие каждый раз оказывается не абсолютным нулем, а относительным… амнистированным, так сказать. Но об этом позже.
    А еще это иногда называют «хаосом», ага. Обыкновенный булыжник под ногами пребывает в состоянии термодинамического хаоса. Вокруг него все меняется: воскресенье, понедельник, вторник… А у него вечная суббота – и он спокоен, как булыжник. (Хорошее дело «хаосом» не назовут.)  А у нас гомеостаз наступает в четвертом часу утра. ИС выключается из сети… ее «внешняя среда» тоже отключается… Но будет утро, и будет день, покой нам только снится. Полный гомеостаз (sic!) в природе не наблюдается, и на то имеется ее особый закон, опять философский.

    Идею Гиббса взялись осуществить на практике физики и математики. Получается это у них трудно… долго… медленно и неправильно – как обычно в науке. К температуре, давлению и объему (паровых машин) физики добавили новые, более современные коды: концентрацию и химический потенциал, тензоры деформации и напряжений… Уже и трудно все перечислить, да и кому это нужно? В результате, термодинамика потеряла право на свою приставку «термо-» и на сегодняшний день стала просто динамикой (физических сред). Однако, тенденция налицо. И матфизика, взирающая на тех и других со своих философских вершин, легко может предсказать, к чему они… к чему мы придем в конце концов. Заменим физические коды на информационные – и получим динамику информационных сред. Вопросы?
    Читатель, верно, уже заметил, что к теням Винера и Гиббса, которых автор призвал на семинар, присоединился Шеннон. Еще мгновение – и эгрегор Пригожина осенит своими крылами коды моего текста, поэтому потороплюсь перебросить мостик к его теме. К динамике сплошных сред математики тоже руку приложили. Еще до всякой термодинамики они придумали хитрую функцию (точнее, даже две, но это детали), с помощью которой можно предсказать прошлое и будущее любой системы. Во времена Лагранжа и Гамильтона эта система была механической – и так возникла теоретическая механика. Гиббс был один из первых, кто применил тот же метод к физической кинетике, которая тогда еще называлась термодинамикой. Это функция от гипотетических и заведомо неизвестных кодов (параметров) «объекта U» – поэтому и потребовался фактор «вероятности»; то есть, на самом деле, неопределенности. Она называется «функцией Гамильтона», не изменяется со временем (инвариант движения) при изменениях замкнутой системы (в частности, среды), и равна энергии этой системы. Вот зачем Шеннон мерил информацию, и вот зачем ему нужны были ее инварианты. Насколько мне помнится, в теории релейных коммуникаций это не что иное как «количество информации». Это чистая математика. Прошлое, и будущее текста. Но не его настоящее.

3.
    Время, время… Пригожин просит слова, и я позволю себе лишь кратко его отрекомендовать. Поскольку «объект U» имеет как корпускулярную, так и «волновую» (полевую) природу, ту же природу имеет и информация. Информатика ждет своего де Бройля, но мостик между этими (мнимыми) альтернативами уже проложен.
    То, что линейная информатика – ограниченная истина, видно невооруженным взглядом: «К несчастью, даже простейший текст – уже система со многими степенями свободы, а простейшее сжатие  – нелинейное преобразование» [10]. Понятное дело! если вас вывести из равновесия, вы тоже будете вести себя … нелинейно. Это чистая математика. Вблизи точки равновесия все информационные коды ведут себя линейно. (Прямо, так сказать, пропорционально…)  Кто знает, что такое ряд Тейлора, понимает, о чем я говорю; а кто не знает – поверит на слово. А если считать информацией только эти отклонения от равновесия (амнистировать общий для всех таких систем нулевой член разложения Тейлора, «сбросить в нуль» [6] и т.д.),  то поведение станет не только линейным, но и однородным, то есть – векторным. И мы получим «весовые коды» линейной информатики.
    Разделение информационной среды на отдельные информационные системы является условным лишь с точки зрения классической философии. Относительность с этого только начинается. Как показал нам Пригожин [4], точек устойчивого равновесия в природе («объекте U»), – а значит, и в ноосфере, – мягко говоря, великое множество. И любая информационная среда на различных своих участках довлеет различным точкам равновесия («моделям» [8]) Вот это и есть принцип разделения среды на существенно различные ИС. 
    Никто не может заставить систему пользоваться одними и теми же кодами на вводе и выводе; но различие между ними возникает с усложнением: с началом коммуникации между ИС, довлеющими разным моделям (точкам равновесия среды).
    Информатика Шеннона описывает простейший, примитивный случай коммуникации: когда приемник и передатчик имеют одинаковые коды на вводе и выводе («функциональную идентичность» [9]), и когда оба довлеют одной и той же точке равновесия («разделяют одну модель» [6]). Тогда можно передавать друг другу только информацию об отклонениях от нее, отжав всю информацию об этой модели, поскольку она уже имеется у приемника. Ну, и самое главное: теория линейных коммуникаций – это «термодинамика» информации; простейший, вырожденный раздел кинетики, описывающий равновесные среды. Время здесь остановилось, оцепенело между прошлым и будущим. В поисках настоящего Пригожин включил секундомер [5]. (Конечно, это – теория линейных коммуникаций – было самое начало. Конечно, «вероятностный подход» на этом сегодня не исчерпывается… Но простота этой модели послужила основанием для многих дидактических  обобщений; а дидактика, как мы знаем, имеет свои пределы.)
    Для коммуникации систем с различными моделями недостаточно просто сменить коды, это только симптом. Каждая из них должна обладать «интеллектуальной составляющей»: сложной обратной связью между исходящим сигналом (своим собственным) и входящим (чужим). То есть, повторять способ действий контрагента коммуникации, другой ИС. Проще говоря, сложная система должна уметь предвидеть реакцию собеседника на ее действия (сигнал). В таких случаях говорят, что ИС «обладает моделью окружающей среды». Ну да, это то самое «отражение», о котором все время твердили вульгарные материалисты.
    Это «отражение» и эта вторая «модель» означают вторую точку равновесия для состояния информационной среды в ИС – а значит, и конкуренцию двух моделей. Вот этот конфликт и служит двигателем «внутреннего» развития системы, ее «самоорганизации», «самосборки», «саморазвития» и прочей маргинальной лексики.
    Дефицит интеллектуальной составляющей в схеме Шеннона нельзя избыть в два счета. Но линейная информатика не имеет подобных ограничений на сложные коммуникации. Такие препятствия вырисовываются только в перспективе, распахнутой Пригожиным. Во-первых, это все тот же фактор развития – вместе с неизбежными фазовыми переходами от модели к модели (от окрестностей точки равновесия к другой точке) и обязательной «сменой кодов» (онтологическим митозом). Во-вторых, это «комбинаторный предел» сложности. Просчитать вручную такую массу деталей (подсистем) практически невозможно: это просто-напросто сплошная среда, в которой не различить песчинок. Предсказать поведение интеллектуальной системы сегодня может, разве что, сама эта система. Завтра… Завтра мы построим ее функцию Гамильтона. Наука умеет много гитик.
    Эта проблема возвращает нас к Винеру, к его информатике в условиях неопределенности (сиречь, кибернетике [1]). Как известно, всякая статистика требует времени. Но если встряхивать коробочку чисто математически, то это время не тратится попусту и ограничено разумными рамками.
    Это убедительно продемонстрировал Илья Пригожин, рассказав широкой общественности в деталях, как ведут себя информационные коды («тексты»), когда неумолимое время перемен методично и злонамеренно волочит, встряхивает, понукает и всяко инако выводит их из равновесия к иному, высшему равновесию; и что с ними может случиться на перевале. Это чистая философия, которой с нас достаточно на сегодня.

2019

Литература:
[1] Норберт Винер. «Кибернетика, или управление и связь в животном и машине»
[2] Норберт Винер. «Идея вероятностной Вселенной». Предисловие в его книге «Человеческое использование человеческих существ»
[3] К. Шеннон. «Математическая теория связи»
[4] Пригожин И. Введение в термодинамику необратимых процессов. — М.: ИЛ, 1960. — 150 с.
[5] Пригожин И. От существующего к возникающему: Время и сложность в физических науках. — М.: Наука, 1985. — 328 с.
[6] Инвариант.
Замечания. Об одном определении Информации - философия, 19.01.2019 01:46
http://www.proza.ru/2019/01/19/166
[7] Инвариант.
Об Информации - без формул - философия, 16.01.2019 01:25
http://www.proza.ru/2019/01/16/110
[8] Инвариант.
Парадокс Шоу и понятие Информация - естествознание, 25.08.2014 19:38
http://www.proza.ru/2014/08/25/1715
[9] Инвариант.
Подходы к определению понятия Информация - естествознание, 26.12.2016 09:30
http://www.proza.ru/2016/12/26/510
[10] Инвариант
Аксиоматика. Наивный взгляд - естествознание, 21.06.2017 01:25
http://www.proza.ru/2017/06/21/110