Энтропия
Что такое энтропия простыми словами
Энтропия: определение из Википедии
Энтропи;я (от др.-греч. ;;;;;;;; — поворот, превращение) — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия является мерой вероятности осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы (например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации). Другой интерпретацией этого понятия является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации Клод Шеннон сначала хотел назвать эту величину информацией. В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру неупорядоченности системы; чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.
Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией.
Энтропия: определение из словаря Ефремовой
1. ж.
Физическая величина, характеризующая тепловое состояние тела или системы тел и
возможные изменения этих состояний.
2. ж.
Мера, степень неопределенности ситуации (в теории информации).
Другие статьи в литературном дневнике: