Энтропия системы является мерой ее. По-простому, что такое энтропия? Энтропия изолированной системы не может уменьшаться

Энтропия (от др.-греч. ἐντροπία «поворот», «превращение») – широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике.

В науку это понятие вошло ещё в XIX веке. Изначально оно было применимо к теории тепловых машин, но достаточно быстро появилось и в остальных областях физики, особенно, в теории излучения. Очень скоро энтропия стала применяться в космологии, биологии, в теории информации. Различные области знаний выделяют разные виды меры хаоса:

  • информационная;
  • термодинамическая;
  • дифференциальная;
  • культурная и др.

Например, для молекулярных систем существует энтропия Больцмана, определяющая меру их хаотичности и однородности. Больцман сумел установить взаимосвязь между мерой хаоса и вероятностью состояния. Для термодинамики данное понятие считается мерой необратимого рассеяния энергии. Это функция состояния термодинамической системы. В обособленной системе энтропия растёт до максимальных значений, и они в итоге становятся состоянием равновесия. Энтропия информационная подразумевает некоторую меру неопределённости или непредсказуемости.

Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы, например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации. Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации (Клод Шеннон) сначала хотел назвать эту величину информацией.

Для обратимых (равновесных) процессов выполняется следующее математическое равенство (следствие так называемого равенства Клаузиуса), где – подведенная теплота, – температура, и – состояния, и – энтропия, соответствующая этим состояниям (здесь рассматривается процесс перехода из состояния в состояние).

Для необратимых процессов выполняется неравенство, вытекающее из так называемого неравенства Клаузиуса, где – подведенная теплота, – температура, и – состояния, и – энтропия, соответствующая этим состояниям.

Поэтому энтропия адиабатически изолированной (нет подвода или отвода тепла) системы при необратимых процессах может только возрастать.

Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку 2-го начала термодинамики: при реальных (необратимых) адиабатических процессах энтропия возрастает, достигая максимального значения в состоянии равновесия (2-ое начало термодинамики не является абсолютным, оно нарушается при флуктуациях).

Абсолютная энтропия (S) вещества или процесса – это изменение доступной энергии при теплопередаче при данной температуре (Btu/R, Дж/К). Математически энтропия равняется теплопередаче, деленной на абсолютную температуру, при которой происходит процесс. Следовательно, процессы передачи большого количества теплоты больше увеличивают энтропию. Также изменения энтропии увеличатся при передаче теплоты при низкой температуре. Так как абсолютная энтропия касается пригодности всей энергии вселенной, температуру обычно измеряют в абсолютных единицах (R, К).

Удельную энтропию (S) измеряют относительно единицы массы вещества. Температурные единицы, которые используются при вычислении разниц энтропии состояний, часто приводятся с температурными единицами в градусах по Фаренгейту или Цельсию. Так как различия в градусах между шкалами Фаренгейта и Ренкина или Цельсия и Кельвина равные, решение в таких уравнениях будет правильным независимо от того, выражена энтропия в абсолютных или обычных единицах. У энтропии такая же данная температура, как и данная энтальпия определенного вещества.

Подводим итог: энтропия увеличивается, следовательно, любыми своими действиями мы увеличиваем хаос.

Просто о сложном

Энтропия – мера беспорядка (и характеристика состояния). Визуально, чем более равномерно расположены вещи в некотором пространстве, тем больше энтропия. Если сахар лежит в стакане чая в виде кусочка, энтропия этого состояния мала, если растворился и распределился по всем объёму – велика. Беспорядок можно измерить, например, посчитав сколькими способами можно разложить предметы в заданном пространстве (энтропия тогда пропорциональна логарифму числа раскладок). Если все носки сложены предельно компактно одной стопкой на полке в шкафу, число вариантов раскладки мало и сводится только к числу перестановок носков в стопке. Если носки могут находиться в произвольном месте в комнате, то существует немыслимое число способов разложить их, и эти раскладки не повторяются в течение нашей жизни, как и формы снежинок. Энтропия состояния «носки разбросаны» – огромна.

Второй закон термодинамики гласит, что самопроизвольно в замкнутой системе энтропия не может убывать (обычно она возрастает). Под её влиянием рассеивается дым, растворяется сахар, рассыпаются со временем камни и носки. Эта тенденция объясняется просто: вещи движутся (перемещаются нами или силами природы) обычно под влиянием случайных импульсов, не имеющих общей цели. Если импульсы случайны, всё будет двигаться от порядка к беспорядку, потому что способов достижения беспорядка всегда больше. Представьте себе шахматную доску: король может выйти из угла тремя способами, все возможные для него пути ведут из угла, а прийти обратно в угол с каждой соседней клетки – только одним способом, причём этот ход будет только одним из 5 или из 8 возможных ходов. Если лишить его цели и позволить двигаться случайно, он в конце концов с равной вероятностью сможет оказаться в любом месте шахматной доски, энтропия станет выше.

В газе или жидкости роль такой разупорядочивающей силы играет тепловое движение, в вашей комнате – ваши сиюминутные желания пойти туда, сюда, поваляться, поработать, итд. Каковы эти желания – неважно, главное, что они не связаны с уборкой и не связаны друг с другом. Чтобы снизить энтропию, нужно подвергнуть систему внешнему воздействию и совершить над ней работу. Например, согласно второму закону, энтропия в комнате будет непрерывно возрастать, пока не зайдёт мама и не попросит вас слегка прибрать. Необходимость совершить работу означает также, что любая система будет сопротивляться уменьшению энтропии и наведению порядка. Во Вселенной та же история – энтропия как начала возрастать с Большого Взрыва, так и будет расти, пока не придёт Мама.

Мера хаоса во Вселенной

Для Вселенной не может быть применён классический вариант вычисления энтропии, потому что в ней активны гравитационные силы, а вещество само по себе не может образовать замкнутую систему. Фактически, для Вселенной – это мера хаоса.

Главнейшим и крупнейшим источником неупорядоченности, которая наблюдается в нашем мире, считаются всем известные массивные образования – чёрные дыры, массивные и сверхмассивные.

Попытки точно рассчитать значение меры хаоса пока нельзя назвать удачными, хотя они происходят постоянно. Но все оценки энтропии Вселенной имеют значительный разброс в полученных значениях – от одного до трёх порядков. Это объясняется не только недостатком знаний. Ощущается недостаточность сведений о влиянии на расчёты не только всех известных небесных объектов, но и тёмной энергии. Изучение её свойств и особенностей пока в зачатке, а влияние может быть определяющим. Мера хаоса Вселенной всё время изменяется. Учёные постоянно проводят определённые исследования, чтобы получить возможность определения общих закономерностей. Тогда будет можно делать достаточно верные прогнозы существования различных космических объектов.

Тепловая смерть Вселенной

У любой замкнутой термодинамической системы есть конечное состояние. Вселенная тоже не является исключением. Когда прекратится направленный обмен всех видов энергий, они переродятся в тепловую энергию. Система перейдёт в состояние тепловой смерти, если термодинамическая энтропия получит наивысшие значение. Вывод о таком конце нашего мира сформулировал Р. Клаузиус в 1865 году. Он взял за основу второй закон термодинамики. Согласно этому закону, система, которая не обменивается энергиями с другими системами, будет искать равновесное состояние. А оно вполне может иметь параметры, характерные для тепловой смерти Вселенной. Но Клаузиус не учитывал влияния гравитации. То есть, для Вселенной, в отличие от системы идеального газа, где частицы распределены в каком-то объёме равномерно, однородность частиц не может соответствовать самому большому значению энтропии. И всё-таки, до конца не ясно, энтропия - допустимая мера хаоса или смерть Вселенной?

Энтропия в нашей жизни

В пику второму началу термодинамики, по положениям которого всё должно развиваться от сложного к простому, развитие земной эволюции продвигается в обратном направлении. Эта нестыковка обусловлена термодинамикой процессов, которые носят необратимый характер. Потребление живым организмом, если его представить как открытую термодинамическую систему, происходит в меньших объёмах, нежели выбрасывается из неё.

Пищевые вещества обладают меньшей энтропией, нежели произведённые из них продукты выделения. То есть, организм жив, потому что может выбросить эту меру хаоса, которая в нём вырабатывается в силу протекания необратимых процессов. К примеру, путём испарения из организма выводится около 170 г воды, т.е. тело человека компенсирует понижение энтропии некоторыми химическими и физическими процессами.

Энтропия – это некая мера свободного состояния системы. Она тем полнее, чем меньшие ограничения эта система имеет, но при условии, что степеней свободы у неё много. Получается, что нулевое значение меры хаоса – это полная информация, а максимальное – абсолютное незнание.

Вся наша жизнь – сплошная энтропия, потому что мера хаоса иногда превышает меру здравого смысла. Возможно, не так далеко время, когда мы придём ко второму началу термодинамики, ведь иногда кажется, что развитие некоторых людей, да и целых государств, уже пошло вспять, то есть, от сложного к примитивному.

Выводы

Энтропия – обозначение функции состояния физической системы, увеличение которой осуществляется за счёт реверсивной (обратимой) подачи тепла в систему;

величина внутренней энергии, которая не может быть преобразована в механическую работу;

точное определение энтропии производится посредством математических расчётов, при помощи которых устанавливается для каждой системы соответствующий параметр состояния (термодинамическое свойство) связанной энергии. Наиболее отчётливо энтропия проявляется в термодинамических процессах, где различают процессы, обратимые и необратимые, причём в первом случае энтропия остаётся неизменной, а во втором постоянно растёт, и это увеличение осуществляется за счёт уменьшения механической энергии.

Следовательно, все то множество необратимых процессов, которые происходят в природе, сопровождается уменьшением механической энергии, что в конечном итоге должно привести к остановке, к «тепловой смерти». Но этого не может произойти, поскольку с точки зрения космологии невозможно до конца завершить эмпирическое познание всей «целостности Вселенной», на основе которого наше представление об энтропии могло бы найти обоснованное применение. Христианские теологи полагают, что, основываясь на энтропии, можно сделать вывод о конечности мира и использовать её для доказательства «существования Бога». В кибернетике слово «энтропия» используется в смысле, отличном от его прямого значения, который лишь формально можно вывести из классического понятия; оно означает: среднюю наполненность информацией; ненадёжность в отношении ценности «ожидания» информации.

Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.

Так что же такое энтропия?

Если в двух словах, то

Энтропия - это то, как много информации вам не известно о системе

Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.


Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые - меньшему, но мы этим пренебрежём).

Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей - вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) - макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).


А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.

Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти - 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 - 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.

Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать:

Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B.

Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть определённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей.

Другими словами, энтропия - это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Физический пример: газ под поршнем

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа - это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях.


Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень. Для идеального газа уравнение состояния имеет простой вид:

хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона - Менделеева pV = νRT - это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать. Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывает. Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 1023.

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации - мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией.

Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, быстро отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Твёрдые тела и потенциальная энергия

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика. Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.


Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Понимаем второй закон термодинамики

Второй закон термодинамики утверждает, что энтропия (закрытой системы) всегда увеличивается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад.


Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

Перемешивание газов

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого - красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится. Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Разбираемся с демоном Максвелла

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача - пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные - справа.

Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно?

Решается этот парадокс, однако, очень просто. Ведь энтропия - это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много - чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю - у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе - но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние - и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What"s an intuitive way to understand entropy? , заданный на сайте Quora.

Вся энергия от сгорания бензина во всех автомобилях мира за прошлый год, перешла, в конечном счете, в нагревание воздуха и земли. Вот что такое энтропия, и это явление присутствует в любом процессе, в любой системе.

Такой переход в теплоту с низкой температурой означает увеличение беспорядка в движении молекул. Даже когда теплота сохраняется, например, при смешивании горячего и холодного воздуха, беспорядок все равно возрастает: (группа быстрых молекул в одной области) + (группа медленных в другой) превращается в (смесь молекул с промежуточным хаотическим движением). Рассмотрение как простого смешивания горячего и холодного газа, так и общетеоретическое изучение тепловых машин (термодинамики) приводит нас к выводу, что естественной тенденцией является изменение энтропии — увеличение беспорядка с течением времени.

Это придает времени важное свойство - направленность в случае статистических процессов. В простой механике, выраженной в законах Ньютона, время может течь в обоих направлениях. Кинофильм о соударении двух молекул будет выглядеть одинаково правдоподобно, как бы мы ни запустили пленку - с начала или с конца. Но фильм, в котором молекулы горячего газа смешиваются с холодными, выглядит дико, если его запустить с конца. Таким образом, столкновения мириад молекул указывают на направление течения времени в нашем мире. Изобретена физическая мера «беспорядка», названная «принцип энтропии».

Говорят, «по закону энтропии, беспорядок во Вселенной стремится возрастать». Отсюда возникла мысль о «тепловой смерти» Вселенной, когда все будет находиться при одной и той же низкой температуре и максимальном беспорядке вещества и излучения.

Понятие энтропии можно определить как отношение количества тепла к абсолютной температуре, или как вероятность определенной конфигурации в мире молекул. Дальнейшие детали этого определения и его использования увели бы нас слишком далеко за рамки нашего курса, но стоит понаблюдать за этим понятием в развивающейся современной науке. «Будущее принадлежит тем, - сказал Фредерик Кеффер, - кто сможет управлять энтропией… Промышленные революции прошлого затрагивали только потребление энергии, но заводы-автоматы будущего - это революция энтропии».

Молекулы газа в процессе соударений в принципе могли бы распределиться на быстрые (горячие) в одной части сосуда и медленные (холодные) - в другой. Это означало бы уменьшение беспорядка в противоположность тому, что предсказывает закон возрастания энтропии. Но такое случайное событие почти невероятно - не невозможно, а просто крайне маловероятно. Наиболее вероятно беспорядочное расположение и скорости молекул, так что упорядоченное расположение после нескольких соударений с большой вероятностью вновь становится хаотическим.

Возникновение порядка очень мало-вероятно даже на протяжении очень долгого времени. Возникновение порядка крайне маловероятно…, беспорядка - очень вероятно, вот почему свойства энтропии можно определить тремя эквивалентными способами: 1) как меру беспорядка; 2) через теплоту и температуру; 3) через вероятности конфигураций молекул (насколько они статистически вероятны).

Второй закон термодинамики по сути дела гласит: энтропия стремится возрастать. Из-за неизбежных процессов, таких, как потери тепла, трение, неупругие соударения…, она увеличивается. Максимум, на что мы можем надеяться в случае непрерывно работающей совершенной тепловой машины,- это сохранение энтропии постоянной.

Изменение энтропии очень важно для расчетов работы тепловых машин, где мы стремимся к потреблению всей доступной тепловой энергии . Оно, по-видимому, очень важно для биологических объектов, для которых господствует одно направление времени.

Кстати, представление о принципе энтропии используется и в «теории информации», которая лежит в основе проектирования систем связи, и т. п. Допустим, что вы ухитрились наблюдать за движением отдельной молекулы газа и можете записать движение каждой из них. За этой детальной информацией вы не разглядите газа как однородной системы, находящейся в состоянии максимального хаоса, а увидите лишь, что движение крайне нерегулярно.

Получая информацию, вы уменьшаете энтропию. Таким образом, информация, переданная по телефону в виде сообщения от термометра к термостату, напоминает отрицательную энтропию. Эта аналогия эффективно помогает при кодировании множества одновременных телефонных переговоров, создании усилителей, улучшении качества звукозаписывающих устройств, конструировании автоматов и при изучении нашей собственной нервной системы, языка, памяти, а возможно, и разума.

Просто о сложном – Что такое энтропия, изменение энтропии процессов и систем, понятие энтропии, свойства и законы энтропии

  • Галерея изображений, картинки, фотографии.
  • Что такое энтропия – основы, возможности, перспективы, развитие.
  • Интересные факты, полезная информация.
  • Зеленые новости – Что такое энтропия.
  • Ссылки на материалы и источники – Что такое энтропия, изменение энтропии процессов и систем, понятие энтропии, свойства и законы энтропии.
    Похожие записи

Энтропия - это мера усложнения системы. Не беспорядка, а усложнения и развития. Чем больше энтропия, тем труднее понять логику этой конкретной системы, ситуации, явления. Принято считать, что чем больше проходит времени, тем менее упорядоченной становится Вселенная. Причина этого - неравномерная скорость развития Вселенной в целом и нас, как наблюдателей энтропии. Мы, как наблюдатели, являемся на огромное число порядков проще Вселенной. Поэтому она кажется нам чрезмерно избыточной, мы не в состоянии понять большинство причинно-следственных связей, её составляющих. Важен и психологический аспект - людям трудно свыкнуться с тем, что они не уникальны. Поймите, тезис о том, что люди - венец эволюции, недалеко ушёл от более раннего убеждения в том, что Земля является центром мироздания. Человеку приятно верить в свою исключительность и неудивительно, что структуры, которые сложнее нас, мы склонны видеть беспорядочными и хаотическими.

Выше есть очень хорошие ответы, объясняющие энтропию, исходя из современной научной парадигмы. На простых примерах отвечающие объясняют это явление. Разбросанные по комнате носки, разбитые стаканы, игра обезьян в шахматы и т.д. Но если приглядеться, то понимаешь - порядок здесь выражается в истинно человеческом представлении. К доброй половине таких примеров применимо слово "лучше". Лучше сложенные в шкафу носки, чем разбросанные носки на полу. Лучше целый стакан, чем стакан разбитый. Тетрадь, написанная красивым почерком лучше тетради с кляксами. В человеческой логике непонятно, что делать с энтропией. Дым, вылетающий из трубки не утилитарен. Разорванная на мелкие кусочки книга бесполезна. Из многоголосого говора и шума в метро трудно выудить хотя бы минимум информации. В этом смысле очень интересным будет вернуться к определению энтропии, введённому физиком и математиком Рудольфом Клаузиусом, видевшему это явление, как меру необратимого рассеяния энергии. От кого уходит эта энергия? Кому становится труднее ей воспользоваться? Да человеку же! Пролитую воду очень трудно (если не невозможно) всю, до капли снова собрать в стакан. Чтобы починить старую одежду, нужно воспользоваться новым материалом (тканью, нитками и т.д.). При этом не учитывается смысл, который данная энтропия может нести не для людей. Приведу пример, когда рассеяние энергии для нас будет нести прямо противоположный смысл для другой системы:

Вы знаете, что ежесекундно огромное количество информации с нашей планеты улетает в космос. Например, в виде радиоволн. Для нас эта информация кажется абсолютно потерянной. Но если на пути радиоволн окажется достаточно развитая инопланетная цивилизация, её представители могут принять и расшифровать часть этой потерянной для нас энергии. Услышать и понять наши голоса, увидеть наши телевизионные и радио передачи, подключиться к нашему интернет-траффику))). В таком случае, нашу энтропию могут упорядочить другие разумные существа. И чем больше рассеяние энергии будет для нас, тем больше энергии смогут собрать они.

Энтропи́я (от др.-греч. ἐντροπία - поворот, превращение) - широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы , определяющая меру необратимого рассеивания энергии. В статистической физике энтропия является мерой вероятности осуществления какого-либо макроскопического состояния . Кроме физики, термин широко употребляется в математике: теории информации и математической статистике . Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы (например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации ). Другой интерпретацией этого понятия является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации Клод Шеннон сначала хотел назвать эту величину информацией. В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру неупорядоченности системы; чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.

Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией .

Употребление в различных дисциплинах

  • Термодинамическая энтропия - термодинамическая функция, характеризующая меру необратимой диссипации энергии в ней.
  • Информационная энтропия - мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче.
  • Дифференциальная энтропия - энтропия для непрерывных распределений.
  • Энтропия динамической системы - в теории динамических систем мера хаотичности в поведении траекторий системы.
  • Энтропия отражения - часть информации о дискретной системе, которая не воспроизводится при отражении системы через совокупность своих частей.
  • Энтропия в теории управления - мера неопределённости состояния или поведения системы в данных условиях.

В термодинамике

Понятие энтропии впервые было введено Клаузиусом в термодинамике в 1865 году для определения меры необратимого рассеивания энергии , меры отклонения реального процесса от идеального. Определённая как сумма приведённых теплот, она является функцией состояния и остаётся постоянной при замкнутых обратимых процессах , тогда как в необратимых - её изменение всегда положительно.

Математически энтропия определяется как функция состояния системы, равная в равновесном процессе количеству теплоты, сообщённой системе или отведённой от системы, отнесённому к термодинамической температуре системы:

dS = \frac{\delta Q}{T},

где dS - приращение энтропии; \delta Q - минимальная теплота, подведённая к системе; {T} - абсолютная температура процесса.

Энтропия устанавливает связь между макро- и микро- состояниями. Особенность данной характеристики заключается в том, что это единственная функция в физике, которая показывает направленность процессов. Поскольку энтропия является функцией состояния, то она не зависит от того, как осуществлён переход из одного состояния системы в другое, а определяется только начальным и конечным состояниями системы.

См. также

Напишите отзыв о статье "Энтропия"

Примечания

  1. Д. Н. Зубарев, В. Г. Морозов. // Физическая энциклопедия / Д. М. Алексеев, А. М. Балдин , А. М. Бонч-Бруевич , А. С. Боровик-Романов , Б. К. Вайнштейн , С. В. Вонсовский , А. В. Гапонов-Грехов , С. С. Герштейн , И. И. Гуревич, А. А. Гусев, М. А. Ельяшевич , М. Е. Жаботинский, Д. Н. Зубарев , Б. Б. Кадомцев , И. С. Шапиро , Д. В. Ширков ; под общ. ред. А. М. Прохорова . - М .: Советская энциклопедия, 1988-1999.
  2. Энтропия // Большая советская энциклопедия : [в 30 т.] / гл. ред. А. М. Прохоров . - 3-е изд. - М . : Советская энциклопедия, 1969-1978.

Литература

  • Шамбадаль П. Развитие и приложение понятия энтропии. - М .: Наука, 1967. - 280 с.
  • Мартин Н., Ингленд Дж. Математическая теория энтропии. - М .: Мир, 1988. - 350 с.
  • Хинчин А. Я. // Успехи математических наук. - 1953. - Т. 8 , вып. 3(55) . - С. 3-20 .
  • Гленсдорф П., Пригожин И. Термодинамическая теория структуры, устойчивости и флуктуаций. - М ., 1973.
  • Пригожин И. , Стенгерс И. Порядок из хаоса. Новый диалог человека с природой. - М ., 1986.
  • Брюллюэн Л. Наука и теория информации. - М ., 1960.
  • Винер Н. Кибернетика и общество. - М ., 1958.
  • Винер Н. Кибернетика или управление и связь в животном и машине. - М ., 1968.
  • Де Гроот С. , Мазур П. Неравновесная термодинамика. - М ., 1964.
  • Зоммерфельд А. Термодинамика и статистическая физика. - М ., 1955.
  • Петрушенко Л. А. Самодвижение материи в свете кибернетики. - М ., 1974.
  • Эшби У. Р. Введение в кибернетику. - М ., 1965.
  • Яглом А. М. , Яглом И. М. Вероятность и информация. - М ., 1973.
  • Волькенштейн М. В. Энтропия и информация. - М .: Наука, 1986. - 192 с.

Отрывок, характеризующий Энтропия

– Oh, nies braves, oh, mes bons, mes bons amis! Voila des hommes! oh, mes braves, mes bons amis! [О молодцы! О мои добрые, добрые друзья! Вот люди! О мои добрые друзья!] – и, как ребенок, головой склонился на плечо одному солдату.
Между тем Морель сидел на лучшем месте, окруженный солдатами.
Морель, маленький коренастый француз, с воспаленными, слезившимися глазами, обвязанный по бабьи платком сверх фуражки, был одет в женскую шубенку. Он, видимо, захмелев, обнявши рукой солдата, сидевшего подле него, пел хриплым, перерывающимся голосом французскую песню. Солдаты держались за бока, глядя на него.
– Ну ка, ну ка, научи, как? Я живо перейму. Как?.. – говорил шутник песенник, которого обнимал Морель.
Vive Henri Quatre,
Vive ce roi vaillanti –
[Да здравствует Генрих Четвертый!
Да здравствует сей храбрый король!
и т. д. (французская песня) ]
пропел Морель, подмигивая глазом.
Сe diable a quatre…
– Виварика! Виф серувару! сидябляка… – повторил солдат, взмахнув рукой и действительно уловив напев.
– Вишь, ловко! Го го го го го!.. – поднялся с разных сторон грубый, радостный хохот. Морель, сморщившись, смеялся тоже.
– Ну, валяй еще, еще!
Qui eut le triple talent,
De boire, de battre,
Et d"etre un vert galant…
[Имевший тройной талант,
пить, драться
и быть любезником…]
– A ведь тоже складно. Ну, ну, Залетаев!..
– Кю… – с усилием выговорил Залетаев. – Кью ю ю… – вытянул он, старательно оттопырив губы, – летриптала, де бу де ба и детравагала, – пропел он.
– Ай, важно! Вот так хранцуз! ой… го го го го! – Что ж, еще есть хочешь?
– Дай ему каши то; ведь не скоро наестся с голоду то.
Опять ему дали каши; и Морель, посмеиваясь, принялся за третий котелок. Радостные улыбки стояли на всех лицах молодых солдат, смотревших на Мореля. Старые солдаты, считавшие неприличным заниматься такими пустяками, лежали с другой стороны костра, но изредка, приподнимаясь на локте, с улыбкой взглядывали на Мореля.
– Тоже люди, – сказал один из них, уворачиваясь в шинель. – И полынь на своем кореню растет.
– Оо! Господи, господи! Как звездно, страсть! К морозу… – И все затихло.
Звезды, как будто зная, что теперь никто не увидит их, разыгрались в черном небе. То вспыхивая, то потухая, то вздрагивая, они хлопотливо о чем то радостном, но таинственном перешептывались между собой.

Х
Войска французские равномерно таяли в математически правильной прогрессии. И тот переход через Березину, про который так много было писано, была только одна из промежуточных ступеней уничтожения французской армии, а вовсе не решительный эпизод кампании. Ежели про Березину так много писали и пишут, то со стороны французов это произошло только потому, что на Березинском прорванном мосту бедствия, претерпеваемые французской армией прежде равномерно, здесь вдруг сгруппировались в один момент и в одно трагическое зрелище, которое у всех осталось в памяти. Со стороны же русских так много говорили и писали про Березину только потому, что вдали от театра войны, в Петербурге, был составлен план (Пфулем же) поимки в стратегическую западню Наполеона на реке Березине. Все уверились, что все будет на деле точно так, как в плане, и потому настаивали на том, что именно Березинская переправа погубила французов. В сущности же, результаты Березинской переправы были гораздо менее гибельны для французов потерей орудий и пленных, чем Красное, как то показывают цифры.
Единственное значение Березинской переправы заключается в том, что эта переправа очевидно и несомненно доказала ложность всех планов отрезыванья и справедливость единственно возможного, требуемого и Кутузовым и всеми войсками (массой) образа действий, – только следования за неприятелем. Толпа французов бежала с постоянно усиливающейся силой быстроты, со всею энергией, направленной на достижение цели. Она бежала, как раненый зверь, и нельзя ей было стать на дороге. Это доказало не столько устройство переправы, сколько движение на мостах. Когда мосты были прорваны, безоружные солдаты, московские жители, женщины с детьми, бывшие в обозе французов, – все под влиянием силы инерции не сдавалось, а бежало вперед в лодки, в мерзлую воду.
Стремление это было разумно. Положение и бегущих и преследующих было одинаково дурно. Оставаясь со своими, каждый в бедствии надеялся на помощь товарища, на определенное, занимаемое им место между своими. Отдавшись же русским, он был в том же положении бедствия, но становился на низшую ступень в разделе удовлетворения потребностей жизни. Французам не нужно было иметь верных сведений о том, что половина пленных, с которыми не знали, что делать, несмотря на все желание русских спасти их, – гибли от холода и голода; они чувствовали, что это не могло быть иначе. Самые жалостливые русские начальники и охотники до французов, французы в русской службе не могли ничего сделать для пленных. Французов губило бедствие, в котором находилось русское войско. Нельзя было отнять хлеб и платье у голодных, нужных солдат, чтобы отдать не вредным, не ненавидимым, не виноватым, но просто ненужным французам. Некоторые и делали это; но это было только исключение.
Назади была верная погибель; впереди была надежда. Корабли были сожжены; не было другого спасения, кроме совокупного бегства, и на это совокупное бегство были устремлены все силы французов.
Чем дальше бежали французы, чем жальче были их остатки, в особенности после Березины, на которую, вследствие петербургского плана, возлагались особенные надежды, тем сильнее разгорались страсти русских начальников, обвинявших друг друга и в особенности Кутузова. Полагая, что неудача Березинского петербургского плана будет отнесена к нему, недовольство им, презрение к нему и подтрунивание над ним выражались сильнее и сильнее. Подтрунивание и презрение, само собой разумеется, выражалось в почтительной форме, в той форме, в которой Кутузов не мог и спросить, в чем и за что его обвиняют. С ним не говорили серьезно; докладывая ему и спрашивая его разрешения, делали вид исполнения печального обряда, а за спиной его подмигивали и на каждом шагу старались его обманывать.