Энтропия |
в начало предыдущее следующее |
Энтропия (от др.-греч. ἐντροπία — поворот, превращение) — в естественных науках мера беспорядка системы, состоящей из многих элементов. Явление, обратное энтропии, именуется негэнтропией. Энтропия — функция состояния системы, равная в равновесном процессе количеству теплоты, сообщённой системе или отведённой от системы, отнесённому к термодинамической температуре системы. Энтропия — функция, устанавливающая связь между макро- и микро- состояниями; единственная функция в физике, которая показывает направленность процессов. Энтропия — функция состояния системы, которая не зависит от перехода из одного состояния в другое, а зависит только от начального и конечного положения системы. Термодинамическая энтропия — термодинамическая функция, характеризующая меру неупорядоченности термодинамической системы, то есть неоднородность расположения и движения её частиц. Информационная энтропия — мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче. Дифференциальная энтропия — энтропия для непрерывных распределений. Энтропия динамической системы — в теории динамических систем мера хаотичности в поведении траекторий системы. Энтропия отражения — часть информации о дискретной системе, которая не воспроизводится при отражении системы через совокупность своих частей. Энтропия в теории управления — мера неопределённости состояния или поведения системы в данных условиях. |