Пять мифов о развитии и энтропии. Миф второй.
Загадочное слово «энтропия» меня всегда смущало и влекло.
Её увидеть, как понять Россию, нам не поможет мудрое стекло.
Рудольф Клаузиус в середине XIX века определил энтропию как функцию состояния системы, задающую меру необратимого рассеивания энергии, вычисляемую как отношение теплоты к абсолютной температуре тела. Теплота – это форма энергии, а тот температуры зависит направление передачи теплоты. Всегда переходя от тёплого тела к холодному, она увеличивает его энтропию. Энтропия тёплого тела при этом уменьшается, но на меньшую величину. В результате энергия рассеивается, а общая (суммарная) энтропия растёт.
Создатель статистической физики Людвиг Больцман в конце XIX века связал энтропию со статистическим весом макросостояния системы, т.е. количеством способов, которыми можно расположить её элементы так, чтобы получить это состояние. Статистическая энтропия равна логарифму этого веса, умноженному на коэффициент, значение которого Больцман определил так, чтобы численно значения энтропий совпадали. При этом он показал, что оба представления эквивалентны.
В 1948 году Клод Шеннон ввёл понятие энтропии в теории связи, развившейся в дальнейшем в теорию информации. Основные свойства информационной, статистической и термодинамической энтропий совпадают. Информация всегда связана с каким-нибудь материальным носителем, но сама по себе свойствами материального тела не обладает. Таким образом, энтропия выступает единой мерой материальных и идеальных процессов.
Существуют и другие способы определения энтропии, используемые в разных дисциплинах и при различных условиях. Энтропию рассматривают как меру необратимости, непредсказуемости, неоднозначности, неопределённости, беспорядка или равновесности. Как бы ни определялась и где бы ни использовалась энтропия, её всегда можно связать со свободой: чем она выше, тем больше возможности у элементов занимать различные положения, в результате чего энергия, масса и/или информация растекается по системе. С ростом энтропии система становится однородней.
Чаще всего в разных научных дисциплинах энтропия вычисляется, как взятая с минусом сумма произведений вероятностей событий на логарифмы этих же вероятностей (минус нужен, поскольку логарифмы вероятности отрицательны, а энтропия всегда положительна). Это то же представление Больцмана, но статистический вес (его называют также термодинамической вероятностью) макросостояния заменён здесь совокупностью (обычных) вероятностей событий, из которых это макросостояние состоит*. Если вероятности заданы не в точках, а распределены непрерывно, сумму заменяют интегралом. Такая функция:
– равна 0, если вероятность одного события равна 1, а остальных, соответственно, 0;
– растёт по мере сближения вероятностей состояний друг с другом;
– максимальна и равна логарифму числа состояний, если все вероятности равны между собой.
В непрерывном случае рост равномерности функции распределения увеличивает энтропию в пределе до логарифма длины интервала, на котором функция отлична от нуля.
Энтропия растёт как при сближении вероятностей, так и при увеличении числа состояний или длины интервала. Если система постоянно находится в одном или нескольких из возможных состояний, энтропия меньше, а при миграции с равной вероятностью по всему множеству доходит до максимума.
Слово "состояние" можно понимать как
а) состояние (значение) элемента системы,
б) микросостояние – совокупность значений элементов,
в) макросостояние – совокупность микросостояний, неразличимых на макроуровне.
Например, если состояние человека оценивать годовым доходом и способом его получения, под микросостоянием некоторого социума можно понимать совокупность этих состояний, отражённых налоговых декларациях, а макросостояние будет характеризоваться суммой поступлений от них в бюджет. Если же человека оценивать по моральным качествам, под микросостоянием можно понимать совокупность характеристик на всех членов общества, а макросостояние будет определться общим моральным настроем.
Каждому состоянию соответствует некотоорая вероятность. Вероятности микро- и макросостояний можно выразить через вероятности значений элементов. Если микросостояния равновероятны, термодинамическая вероятность макросостояния определяется числом соответствующих ему микросостояний. термодинамическая вероятность в некотором смысле обратна обычной: она всегда больше единицы и её рост означает увеличение энтропии.
Уважаемый учёный, кандидат физико-математических наук С.Д. Хайтун, запутавшись в вероятностях, утверждал, что у атома энтропия больше, чем у его осколков, только потому, что он не разваливается самопроизвольно на куски. Подробно о его ошибке можно почитать здесь: «Э.Шрёдингер и эволюция, С. Хайтун и беспорядок» (http://proza.ru/2020/06/17/11).
Системы не задерживаются в макросостояниях, которым соответствует малое количество микросостояний, т.е. низкий статистический вес. Например, если не класть вещи на место, полный порядок, соответствующий единственному состоянию "всё на своих местах" гораздо менее вероятен, чем бедлам. Из одного беспорядочного макросостояния самопроизвольно система может перейти только в ещё более беспорядочное.
Можно рассматривать разные типы систем и идущих в них процессов. В стационарных вероятности состояний постоянны: система быстро переходит в наиболее вероятное и застывает в нём до вмешательства внешних сил. Развитие в таких системах невозможно. В квазистатических системах вероятности событий меняются медленно, и система успевает переходить в наиболее вероятные макросостояния. В более быстрых, динамических процессах и системах вероятности состояний являются функцией времени, но движение в сторону роста равномерности происходит и в них. Что и означает рост энтропии, т.е. соответствует второму началу термодинамики.
Если у инвесторов есть возможность свободного выбора объектов инвестиции, капитал перетекает в отрасли, которые устойчиво дают большой доход. Схожие процессы наблюдается и в неживых системах: притяжение Земли приводит к неравномерному распределению молекул в атмосфере по высоте, так что верхние её слои неизбежно разрежены. Это снижает энтропию, но надо помнить, что неравномерность всегда вызывается действием силы, вносящей в систему организованную энергию. Если такой силы нет (например, внутри горизонтального слоя воздуха или для равновыгодных вложений средств), элементы распределяются равномерно и энтропия растёт. Все предприниматели могут пытаться производить один и тот же товар, только если он даёт сверхприбыль. Обычно инвесторы, предприниматели и наёмные работники распределяются, с учётом доходности мест приложения усилий, относительно равномерно. При отсутствии внешних возмущений любая система смещается в сторону роста вероятности и равновесности.
Снижение энтропии в принципе невозможно без внесения в систему внешней энергии в организованной форме и/или выноса и рассеяния (диссипации) – в дезорганизованной. Но под воздействием внешних сил различия между вероятностями состояний могут увеличиваться, а энтропия, следовательно, уменьшаться. Например, нестабильность приводит к повышению вероятности вложения средств в золото и недвижимость; внешние угрозы государству увеличивают вероятность поддержки правительства населением и т.д. И, наоборот, в стабильной обстановке инвестиции более равномерно растекаются по отраслям, а оппозиционные партии могут увеличить свой рейтинг.
В сложных биологических или общественных процессах рост энтропии маскируется активными действиями систем по её снижению. Это не означает, что он отсутствует или идёт по особым законам. Там, где противодействия нет или оно недостаточно, например, в поведении больших неорганизованных групп, идут типичные энтропийные процессы: если поведение каждого члена группы случайно, группа в целом быстро переходит в наиболее вероятное макросостояние.
Отметим, что самопроизвольный рост энтропии и течение времени (стрела времени) всегда имеют общее направление. Восходящая эволюция систем не может избегать увеличения энтропии, но, за счёт совершенствования структуры (накопления информации, активных и пассивных связей) локализует области её роста. (Подробнее об этом в заметках об общей теории эволюции систем, http://proza.ru/2020/06/16/1776 и др.)
Понятие энтропии и второе начало термодинамики применимы к любым процессм. Важно только понимать и правильно использовать эти инструменты, не ограничиваясь штампами типа «энтропия – мера беспорядка» (о чём подробно здесь: http://www.proza.ru/2018/09/30/1982).
Ред.11.10.2025
Далее - http://www.proza.ru/2018/09/30/1977
Назад - http://www.proza.ru/2018/09/30/1965
Начало (Пять мифов о развитии и энтропии. Введение http://www.proza.ru/2018/09/30/1948)
Об энтропии, ё свойствах и значении для эволюции можно также почитать в заметке «Эволюция и энтропия. Тепловая смерть Вселенной» (http://proza.ru/2020/06/16/1790
и популярной книге М.В., Волькенштейна «Энтропия и информация», М., Наука, 1986).
* Разберём на простом примере соответствие формулы Больцмана S=k*log(w), (w – термодинамическая вероятность) более распространённой формуле
S=-СУММА[ p * log(p) ] (p – обычная вероятность события, суммирование идёт по всем событиям).
Пусть 3 яблока лежат в двух ящиках. Не различая ни ящики, ни яблоки, имеем два макросостояния: все яблоки в одном ящике или в одном – 2, в другом 1. Для первого w = 2, для второго w =6.
В первое макросостояние входят два события: все яблоки в первом ящике и все во втором. p=1/2, поэтому S= -2*1/2 *log(1/2)= log(2). Во второе входят 6 событий, различающихся расположением яблок. Для каждого p=1/6 и S= -6*1/6 *log(1/6)= log(6). Отличие от формулы Больцмана лишь в постоянном коэффициенте, имеющем значение только в термодинамике.
Фото из интернета: Бюст и формула энтропии на могиле Больцмана