Информация. Часть 1

Александр Ивашкевич
       Точка и тире не несут никакого смысла.
       Но если договориться, что определённое сочетание точек и тире  отражают  буквы, то можно точками и тире  изобразить  буквы и из  их сочетания -  слова, которые  по договорённости между людьми несут некий смысл!
       Я уже написал в черновике статью о том, что нет никакой "информации", как и "времени" и "энергии".  Все эти слова отражают лишь меру чего-то иного!
       Произведённой работы, движения, взаимодействия, произошедшего изменения, содержания смысла... 
       Это всего лишь  идеи - иллюзии -  с определённым договорным смыслом.
       Например, простым сигналом  трубой (звуком)  или зажжённым костром (видимость) можно начать войну!
       Простой сигнал может нести  кучу информации для договорившихся сторон. А сам по себе он  мало что значит: звук, свет, тепло...
       Например, звук колокола может "нести" столько "информации", что ого-го! Но только для "знатоков" того, кто заведомо знает, что этот звук отражает, содержит.  По договорённости сторон.  Потому я и считаю, что "информации" в Природе нет!
       Есть материальные сигналы и носители, относительно которых люди договариваются о том, что они несут. Сигналами, знаками, иероглифами, словами люди пользуются для передачи смыслов - информации.  Для всех знаков и слов есть общепринятые смыслы. Иногда разные смыслы. По договорённости сторон. 
       Взаимодействующим людям приходится  долго объяснять смысл используемых слов. Не всё так просто при применении знаков, символов,  слов, понятий, терминов, идей.  В разных языках имеются разные смыслы (понимания) слов, отражающих вроде бы одно и тоже о природе вещей. Стихи, например,  вообще невозможно адекватно перевести на другой язык! "Переводятся" смыслы слов. И это зависит от уровня понимания переводчика! 
       Не всё так просто, как кажется. Хотя всё "просто"  для подготовленного ума.
       "Если на клетке слона прочтёшь надпись "буйвол", не верь глазам своим."(Козьма Прутков).
       Я попытался разобраться в этом популярном слове - информация -  и столкнулся с "волюнтаризмом" основателей изучение "этого": почему принято, что один байт информации содержит именно 8 бит (2 в третьей степени).
       Один бит - это два варианта состояний: 0 или 1, то есть,  наличие (1) или отсутствие (0) чего-то. А что это означает - знают только те, кто договорился об этом... Никакой "информации" нет без договорённости обменивающихся "информацией". Ноль - он и в Африке ноль. И всё! Единица она даже на Украине единица. И что? Всё...
       С формальных позиций всё "понятно"! Пример - бросание монеты. Орёл  или решка: наличествует либо одно, либо другое. Давайте договоримся - орла считать  единицей, а решку - нулём... Вот с этого и начинается "информация", записываемая определённым образом.  Двоичная система.  Один байт равен восьми битам - это 2 в восьмой степени = 256 вариантов сочетания двух элементов (0 и 1 или + и -) в группы из восьми (почему именно из восьми?). Различным сочетанием этих восьмизначных знаков можно договорится обозначать что-то конкретное. Составим справочник перевода или расшифровки... Без этого переводного справочника эти восьмизначные цифры не несут никакой "информации", кроме числа!
         В современных вычислительных системах байт состоит из восьми битов и, соответственно, может принимать одно из 256 (2 в 8 степени) различных значений (состояний, кодов). Однако в истории компьютерной техники существовали решения с иными размерами байта (например, 6, 32 или 36 битов), поэтому иногда в компьютерных стандартах и официальных документах для однозначного обозначения группы из 8 битов используется термин "октет" (лат. octet).
        Полный произвол. Конвенционаализм, выражаясь более научно.  Название "байт" было впервые использовано в 1956 году В. Бухгольцем при проектировании первого суперкомпьютера IBM 7030 Stretch для совокупности одновременно передаваемых в устройствах ввода-вывода шести битов. Потом байт был расширен до восьми бит. Зачем? Почему? Ну так решили отцы-основатели...
        Ряд ЭВМ 1950-х и 1960-х годов (БЭСМ-6, М-220) использовали 6-битовые символы в 48-битовых или 60-битовых машинных словах. В некоторых моделях ЭВМ производства Burroughs Corporation (ныне Unisys) размер символа был равен 9 битам. В советской ЭВМ Минск-32 использовался 7-битный байт.
        8-битные байты  приняты в System/360 из-за использования BCD-формата представления чисел: одна десятичная цифра (0-9) требует 4 бита (тетраду) для хранения. Один 8-битный байт может представлять две десятичные цифры. 6-битные байты могут хранить только по одной десятичной цифре, два бита остаются незадействованными.
       По иной версии, 8-битный размер байта связан с 8-битным  числовым представлением символов в кодировке EBCDIC.
       По ещё одной версии, из-за двоичной системы кодирования в компьютерах наиболее выгодными для аппаратной реализации и удобными для обработки данных принимаются  длины слов кратные степеням 2, в том числе и 1 байт = 23 = 8 битов, системы и компьютеры с длинами слов не кратными числу 2 не используются из-за невыгодности и неудобства.
       С начала 1970-х в большинстве компьютеров байты состоят из 8 бит, а размер машинного слова кратен 8 битам. В дальнейшем 8-битные байты стали стандартом.
       В большинстве вычислительных архитектур байт понимается как минимальный независимо адресуемый набор данных. О чём? Договоримся...
        Всё это напоминает ноты и звукоряд: от До одной октавы до До другой октавы - 8 знаков. Некий звук решили обозначить знаком Фа. Но само слово "Фа" не несёт никакой информации!
        Таким образом, имеем 256 возможных состояний восьмиячеичного образования, в каждой ячейке которого может размещаться единица или ноль. Совершенно произвольно (!) приняли, что "байт" соответствует одному символу, знаку, букве...
       Почему? Почему за байт не приняли 2 во второй степени = 4? Далее всё логично. Килобайт или кибибайт (правильно КиБ) содержит 2 в десятой степени байтов = 1024 байта). Один килобайт описывает 1024 символа (химических элементов, людей  или иных структурных единиц).
      Один мегабайт описывает 1 048 576 состояний (символов или элементов), байтов. И так далее. Два в степени n. В звукоряде два в степени n делится на три в степени m таким образом, чтобы число попало между 1 и 2. Я проверял...
      Сейчас есть примеры, как какой-то любознательный человек посчитал число звёзд в галактиках, электронов в  молекулах или число генов в дезоксирибонуклкеиновых кислотах  ДНК, образующих клетку или сперматозоид (это, кстати, также "клетка"). Довольно сложная задача. Но вполне выполнимая. И взял и приравнял эти числа числу неких байтов. Делать было нечего. Дело было вечером. Молодец.
       Я проверять такие вычисления не собираюсь... Но это принципиально ошибочный подход. Поскольку байты, по своему смыслу,  отражают только число равновероятных(!) сочетаний двух элементов в восьмиячеичных образованиях, а звёзды, химические соединения между атомами или группами атомов или клетки образуются далеко не равновероятно. И вообще, что такое "генетическая информация"? Я не понимаю. Биологи искренне верят, что понимают...
      Пока я и ты не договорился, что обозначает данный знак, сигнал или символ - он не несёт никакой информации! Вон, каббалисты договорились про свои буквы...  И играются с ними как в кубики. Для непосвящённых - это просто закорючки! В самих по себе в них нет никакой "информации"! Как и в любом другом алфавите...