Энтропия

в начало  предыдущее  следующее

Энтропия (от др.-греч. ἐντροπία — поворот, превращение) — в естественных науках мера беспорядка системы, состоящей из многих элементов. Явление, обратное энтропии, именуется негэнтропией.

Энтропия — функция состояния системы, равная в равновесном процессе количеству теплоты, сообщённой системе или отведённой от системы, отнесённому к термодинамической температуре системы.

Энтропия — функция, устанавливающая связь между макро- и микро- состояниями; единственная функция в физике, которая показывает направленность процессов. Энтропия — функция состояния системы, которая не зависит от перехода из одного состояния в другое, а зависит только от начального и конечного положения системы.

Термодинамическая энтропия — термодинамическая функция, характеризующая меру неупорядоченности термодинамической системы, то есть неоднородность расположения и движения её частиц.

Информационная энтропия — мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче.

Дифференциальная энтропия — энтропия для непрерывных распределений.

Энтропия динамической системы — в теории динамических систем мера хаотичности в поведении траекторий системы.

Энтропия отражения — часть информации о дискретной системе, которая не воспроизводится при отражении системы через совокупность своих частей.

Энтропия в теории управления — мера неопределённости состояния или поведения системы в данных условиях.