Энтропия - только для физики и математики?

Валентин Кононов
Пять мифов о развитии и энтропии. Миф второй.

            Загадочное слово «энтропия» меня всегда смущало и влекло.
            Её увидеть, как понять Россию, нам не поможет мудрое стекло.

Ред.28.01.2022
(Об энтропии, ё свойствах и значении для  эволюции можно также почитать в моих заметках:
 Эскиз общей теории эволюции систем (http://proza.ru/2020/06/16/1776)
Эволюция и энтропия. «Тепловая смерть» Вселенной (http://proza.ru/2020/06/16/1790)
Э.Шрёдингер и эволюция, С. Хайтун и беспорядок   (http://proza.ru/2020/06/17/11)
И  популярной книге  М.В., Волькенштейна «Энтропия и информация», М., Наука, 1986).

     Рудольф Клаузиус в середине XIX века определил энтропию как функцию состояния системы, задающую меру необратимого рассеивания энергии. В развитой им науке - термодинамике она вычисляется как отношение теплоты к абсолютной температуре тела. Теплота – это форма энергии. А тот температуры зависит направление передачи теплоты – она всегда переходит от тёплого тела к холодному. Чем больше энергии при данной температуре сохраняет тело, тем его энтропия выше.
     Создатель статистической физики Людвиг Больцман в конце XIX века связал энтропию со статистическим весом (термодинамической вероятностью) макросостояния системы. Энтропия Больцмана пропорциональна логарифму этого веса. Но это не другая величина, Больцман показал, что оба представления энтропии  эквивалентны.
     В 1948 году Клод Шеннон ввёл понятие энтропии в теории связи, развившейся в дальнейшем в теорию информации. Основные свойства информационной и термодинамической энтропий совпадают. Информация всегда связана с каким-нибудь материальным носителем, но сама по себе свойствами материального тела не обладает, она идеальна. Таким образом, энтропия выступает единой мерой материальных и идеальных процессов.
     Существуют и другие способы определения энтропии, используемые в разных дисциплинах и при различных условиях. Энтропию рассматривают как меру необратимости, непредсказуемости, неоднозначности, неопределённости, беспорядка или равновесности. Как бы ни определялась и где бы ни использовалась энтропия, основным её свойством является свобода, рост которой "позволяет" элементам занимать любое возможное положение, в результате чего энергия, материя и/или информация  растекается по системе. Материя и информация не могут перемещаться без участия энергии, поэтому чаще, говоря об энтропии, имеют в виду степень деградации энергии.
     Как правило, энтропия выражается статистической функцией, характеризующей распределение вероятностей допустимых состояний. Чаще всего в разных научных дисциплинах она вычисляется, как взятая с минусом сумма произведений вероятностей событий на логарифмы этих же вероятностей (минус нужен, поскольку логарифмы вероятности отрицательны, а энтропия всегда положительна). Если вероятности заданы не в точках, а распределены непрерывно, сумму заменяют интегралом. Такая функция:
– равна 0, если вероятность одного состояния равна 1, а остальных, соответственно, 0;
– растёт по мере сближения вероятностей состояний друг с другом;
– максимальна и равна логарифму числа состояний, если все вероятности равны между собой.
В непрерывном случае рост равномерности функции распределения увеличивает энтропию в пределе  до логарифма длины интервала, на котором функция отлична от нуля.
Энтропия растёт в двух случаях: если растёт число (мощность множества, длина интервала) состояний и если сближаются их вероятности. Если система постоянно находится в одном или нескольких из возможных состояний, энтропия меньше, а если с равной вероятностью мигрирует по всему множеству, она максимальна.
     Слово "состояние" можно понимать как
а) состояние элемента системы (его значение),
 б) микросостояние – совокупность значений элементов,
в) макросостояние – совокупность микросостояний, неразличимых на макроуровне.
Например, если состояние человека оценивать годовым доходом и способом его получения, под микросостоянием некоторого социума можно понимать совокупность налоговых деклараций его членов, а макросостояние будет характеризоваться общими поступлениями от них в бюджет. Если же человека оценивать по его моральным качествам, под микросостоянием можно понимать совокупность характеристик каждого члена общества, а макросостояние будет характеризоваться его общим моральным настроем.
     Каждое состояние любого вида имеет определённую вероятность. Вероятности микро- и макросостояний могут быть выражены через вероятности значений элементов. В статистической физике обычно рассматривают микросостояния, имеющие одинаковую вероятность. Поэтому статистический вес, или термодинамическую вероятность макросостояния можно определять количеством соответствующих ему микросостояний. Такая вероятность в некотором смысле обратна обычной: она всегда больше единицы и её рост означает увеличение энтропии.
     Обычная вероятность определяется отношением числа благоприятствующих событий к числу всех возможных. Если сравнивать два макросостояния, переход системы из менее в более вероятное  может означать рост энтропии. Но, в отличие от термодинамической, рост обычной вероятности одного состояния происходит за счёт других. Если он приводит к росту неравномерности системы, энтропия снижается. Уважаемый учёный, кандидат физико-математических наук С.Д. Хайтун, запутавшись в вероятностях, утверждал, что у атома энтропия больше, чем у его осколков, только потому, что он не разваливается самопроизвольно на куски, т.е. вероятность сохранения целостного атома выше. Но рост обычной (в отличие от термодинамической) вероятности,  НЕ ВСЕГДА означает рост энтропии. В примере с атомом лучше посмотреть на равномерность распределения энергии, которая выше у осколков, что всегда означает бо’льшую энтропию.
     Система не может задержаться в макросостоянии, которому соответствует малое количество микросостояний, т.е. низкий статистический вес. Например, если не класть вещи на место сразу или не убирать их периодически, полный порядок, соответствующий единственному микросостоянию "всё на своих местах" гораздо менее вероятен, чем бедлам, образуемый любым из множества беспорядочных состояний. Из одного беспорядочного макросостояния самопроизвольно система может перейти только в ещё более беспорядочное, имеющее больший статистический вес, т.е. бо’льшую энтропию. 
    Можно рассматривать разные типы систем и идущих в них процессов. В стационарных вероятности состояний постоянны. Система быстро переходит в наиболее вероятное и застывает в нём до вмешательства внешних сил. Развитие,  которое нас интересует, в таких системах невозможно. В квазистатических системах вероятности меняются достаточно медленно, и система успевает переходить в наиболее вероятные макросостояния. В более быстрых, динамических процессах и системах  вероятности состояний являются функцией времени, но движение в сторону роста равномерности происходит всегда. Что и означает рост энтропии, т.е. соответствует второму началу термодинамики.
     Если у инвесторов есть возможность свободного выбора объектов инвестиции, капитал перетекает в отрасли, которые  устойчиво дают большой доход. Схожие процессы наблюдается и в неживых системах: притяжение Земли приводит к неравномерному распределению молекул в атмосфере по высоте, так что верхние её слои неизбежно разрежены. Это снижает энтропию, но надо помнить, что неравномерность всегда вызывается действием соответствующей силы, т.е. внесением в систему организованной энергии. Если такой силы нет (например, внутри горизонтального слоя воздуха или для равновыгодных вложений средств), элементы распределяются равномерно и энтропия растёт. Все предприниматели могут начать производить один и тот же продукт, только если он даёт сверхприбыль. Обычно инвесторы, предприниматели и наёмные работники распределяются, с учётом доходности мест приложения усилий, относительно равномерно. Это может не соответствовать наибольшему числу возможных комбинаций выбора, поскольку вероятности микросостояний в сложных системах могут сильно различаться, но при отсутствии внешних возмущений любая система смещается в сторону роста вероятности и равновесности макросостояний.
     Снижение энтропии в принципе невозможно без внесения в систему внешней энергии в организованной форме и/или выноса и рассеяния (диссипации) – в дезорганизованной. Но под воздействием внешних сил различия между вероятностями состояний могут увеличиваться, а  энтропия, следовательно, уменьшаться. Например, нестабильность приводит к повышению вероятности вложения средств в золото и недвижимость; внешние угрозы государству увеличивают вероятность поддержки правительства населением и т.д. И, наоборот, в стабильной обстановке инвестиции более равномерно растекаются по отраслям, а оппозиционные партии получают шанс увеличить свой рейтинг.
     В сложных биологических или общественных процессах рост энтропии маскируется активными действиями систем по её снижению. Это не означает, что он отсутствует или идёт по особым законам. Там, где противодействия нет или оно недостаточно, например, в поведении больших неорганизованных групп, можно проследить типичные энтропийные процессы: если поведение каждого члена группы случайно, группа в целом быстро переходит в наиболее вероятное макросостояние.
     Следует особо отметить, что самопроизвольный рост энтропии и течение времени (стрела времени) всегда имеют общее направление. Это – ключевой факт для понимания восходящей эволюции систем, которая не может избегать увеличения энтропии, но, за счёт накопления информации, активных и пассивных связей, локализует области её роста. (Подробнее об этом в заметках об общей теории эволюции систем, http://proza.ru/2020/06/16/1776 и др.)
     Можно утверждать, что понятие энтропии и действие второго начала термодинамики распространяется на любые процессы. Важно только понимать и правильно использовать эти инструменты, не ограничиваясь штампами типа «энтропия – мера беспорядка» (о чём подробно в четвёртом мифе, http://www.proza.ru/2018/09/30/1982).
Далее - http://www.proza.ru/2018/09/30/1977
Назад - http://www.proza.ru/2018/09/30/1965
Начало (Пять мифов о развитии и энтропии. Введение http://www.proza.ru/2018/09/30/1948)