Вывод формулы энтропии. Энтропия. Физический смысл энтропии. Энтропия и вероятность

Подробности Категория: Термодинамика Опубликовано 03.01.2015 15:41 Просмотров: 6634

К макроскопическим параметрам термодинамической системы относятся давление , объём и температура. Однако существует ещё одна важная физическая величина, которую используют для описания состояний и процессов в термодинамических системах. Её называют энтропией.

Что такое энтропия

Впервые это понятие ввёл в 1865 г. немецкий физик Рудольф Клаузиус. Энтропией он назвал функцию состояния термодинамической системы, определяющую меру необратимого рассеивания энергии.

Что же такое энтропия?

Прежде чем ответить на этот вопрос, познакомимся с понятием «приведенной теплоты». Любой термодинамический процесс, проходящий в системе, состоит из какого-то количества переходов системы из одного состояния в другое. Приведенной теплотой называют отношение количества теплоты в изотермическом процессе к температуре, при которой происходит передача этой теплоты.

Q" = Q/T .

Для любого незамкнутого термодинамического процесса существует такая функция системы, изменение которой при переходе из одного состояния в другое равно сумме приведенных теплот. Этой функции Клаузиус дал название «энтропия » и обозначил её буквой S , а отношение общего количества теплоты ∆Q к величине абсолютной температуры Т назвал изменением энтропии .

Обратим внимание на то, что формула Клаузиуса определяет не само значение энтропии, а только её изменение.

Что же представляет собой «необратимое рассевание энергии» в термодинамике?

Одна из формулировок второго закона термодинамики выглядит следующим образом: "Невозможен процесс, единственным результатом которого является превращение в работу всего количества теплоты, полученного системой ". То есть часть теплоты превращается в работу, а какая-то её часть рассеивается. Этот процесс необратим. В дальнейшем рассеиваемая энергия уже не может совершать работу. Например, в реальном тепловом двигателе рабочему телу передаётся не вся теплота. Часть её рассеивается во внешнюю среду, нагревая её.

В идеальной тепловой машине, работающей по циклу Карно, сумма всех приведенных теплот равна нулю. Это утверждение справедливо и для любого квазистатического (обратимого) цикла. И неважно, из какого количества переходов из одного состояния в другое состоит такой процесс.

Если разбить произвольный термодинамический процесс на участки бесконечно малой величины, то приведенная теплота на каждом таком участке будет равна δQ/T . Полный дифференциал энтропии dS = δQ/T .

Энтропию называют мерой способности теплоты необратимо рассеиваться. Её изменение показывает, какое количество энергии беспорядочно рассеивается в окружающую среду в виде теплоты.

В замкнутой изолированной системе, не обменивающейся теплом с окружающей средой, при обратимых процессах энтропия не изменяется. Это означает, что дифференциал dS = 0 . В реальных и необратимых процессах передача тепла происходит от тёплого тела к холодному. В таких процессах энтропия всегда увеличивается (dS ˃ 0 ). Следовательно, она указывает направление протекания термодинамического процесса.

Формула Клаузиуса, записанная в виде dS = δQ/T , справедлива лишь для квазистатических процессов. Это идеализированные процессы, являющиеся чередой состояний равновесия, следующих непрерывно друг за другом. Их ввели в термодинамику для того, чтобы упростить исследования реальных термодинамических процессов. Считается, что в любой момент времени квазистатическая система находится в состоянии термодинамического равновесия. Такой процесс называют также квазиравновесным.

Конечно, в природе таких процессов не существует. Ведь любое изменение в системе нарушает её равновесное состояние. В ней начинают происходить различные переходные процессы и процессы релаксации, стремящиеся вернуть систему в состояние равновесия. Но термодинамические процессы, протекающие достаточно медленно, вполне могут рассматриваться как квазистатические.

На практике существует множество термодинамических задач, для решения которых требуется создание сложной аппаратуры, создание давления в несколько сот тысяч атмосфер, поддержание очень высокой температуры в течение длительного времени. А квазистатические процессы позволяют рассчитать энтропию для таких реальных процессов, предсказать, как может проходить тот или иной процесс, реализовать который на практике очень сложно.

Закон неубывания энтропии

Второй закон термодинамики на основании понятия энтропии формулируется так: «В изолированной системе энтропия не уменьшается ». Этот закон называют также законом неубывания энтропии .

Если в какой-то момент времени энтропия замкнутой системы отличается от максимальной, то в дальнейшем она может только увеличиваться, пока не достигнет максимального значения. Система придёт в состояние равновесия.

Клаузиус был уверен, что Вселенная представляет собой замкнутую систему. А раз так, то её энтропия стремится достичь максимального значения. Это означает, что когда-нибудь все макроскопические процессы в ней прекратятся, и наступит «тепловая смерть». Но американский астроном Эдвин Пауэлл Хаблл доказал, что Вселенную нельзя назвать изолированной термодинамической системой, так как она расширяется. Советский физик академик Ландау считал, что закон неубывания энтропии к Вселенной применять нельзя, так как она находится в переменном гравитационном поле. Современная наука пока не в состоянии дать ответ на вопрос, замкнутой ли системой является наша Вселенная или нет.

Принцип Больцмана

Людвиг Больцман

Любая замкнутая термодинамическая система стремится к состоянию равновесия. Все самопроизволные процессы, происходящие в ней, сопровождаются ростом энтропии.

В 1877 г. австрийский физик-теоретик Людвиг Больцман связал энтропию термодинамического состояния с количеством микросостояний системы. Считается, что саму формулу расчёта значения энтропии позднее вывел немецкий физик-теоретик Макс Планк.

S = k · ln W ,

где k = 1,38·10 −23 Дж/К - постоянная Больцмана; W - количество микросостояний системы, которые реализуют данное макростатическое состояние, или число способов, которыми это состояние может быть реализовано.

Мы видим, что энтропия зависит только от состояния системы и не зависит от того, каким способом система перешла в это состояние.

Физики считают энтропию величиной, характеризующей степень беспорядка термодинамической системы. Любая термодинамическая система всегда стремится уравновесить свои параметры с окружающей средой. К такому состоянию она приходит самопроизвольно. И когда состояние равновесия достигнуто, система уже не может совершать работу. Можно считать, что она находится в беспорядке.

Энтропия характеризует направление протекания термодинамического процесса обмена теплом между системой и внешней средой. В замкнутой термодинамической системе она определяет, в каком направлении протекают самопроизвольные процессы.

Все процессы, протекающие в природе, необратимы. Поэтому они протекают в направлении увеличения энтропии.

Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What"s an intuitive way to understand entropy? , заданный на сайте Quora

Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.

Так что же такое энтропия?

Если в двух словах, то
Энтропия - это то, как много информации вам не известно о системе

Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.


Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые - меньшему, но мы этим пренебрежём).


Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей - вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) - макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).

А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.

Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти - 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 - 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.

Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать:

Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B.

Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть опеделённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей.

Другими словами, энтропия - это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Физический пример: газ под поршнем

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа - это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях.

Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень. Для идеального газа уравнение состояния имеет простой вид:

Хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона - Менделеева pV = νRT - это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать. Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывают. Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 10 23 .

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации - мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией.

Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Твёрдые тела и потенциальная энергия

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика. Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.

Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Понимаем второй закон термодинамики

Второй закон термодинамики утверждает, что энтропия (замкнутой системы) никогда не уменьшается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад.


Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

Перемешивание газов

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого - красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится. Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Разбираемся с демоном Максвелла

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача - пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные - справа.


Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно?

Решается этот парадокс, однако, очень просто. Ведь энтропия - это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много - чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю - у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе - но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние - и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

Энтропия

Изменение энтальпии системы не может служить единственным критерием самопроизвольного осуществления химической реакции, поскольку многие эндотермические процессы протекают самопроизвольно. Иллюстрацией этого служит растворение некоторых солей (например, NH 4NO 3) в воде, сопровождающееся заметным охлаждением раствора. Необходимо учитывать еще один фактор, определяющий способность самопроизвольно переходить из более упорядоченного к менее упорядоченному (более хаотичному) состоянию.

Энтропия (S ) – термодинамическая функция состояния, которая служит мерой беспорядка (неупорядоченности) системы. Возможность протекания эндотермических процессов обусловлена изменением энтропии, ибо в изолированных системах энтропия самопроизвольно протекающего процесса увеличивается ΔS > 0 (второй закон термодинамики ).

Л. Больцман определил энтропию как термодинамическую вероятность состояния (беспорядок) системы W . Поскольку число частиц в системе велико (число Авогадро N A = 6,02∙10 23), то энтропия пропорциональна натуральному логарифму термодинамической вероятности состояния системы W :

Размерность энтропии 1 моля вещества совпадает с размерностью газовой постоянной R и равна Дж∙моль –1∙K –1. Изменение энтропии *) в необратимых и обратимых процессах передается соотношениями ΔS > Q / T и ΔS = Q / T . Например, изменение энтропии плавления равно теплоте (энтальпии) плавления ΔS пл = ΔH пл/T пл Для химической реакции изменение энтропии аналогично изменению энтальпии

*) термин энтропия был введен Клаузиусом (1865 г.) через отношение Q/T (приведенное тепло).

Здесь ΔS ° соответствует энтропии стандартного состояния. Стандартные энтропии простых веществ не равны нулю. В отличие от других термодинамических функций энтропия идеально кристаллического тела при абсолютном нуле равна нулю (постулат Планка), поскольку W = 1.

Энтропия вещества или системы тел при определенной температуре является абсолютной величиной. В табл. 4.1 приведены стандартные энтропии S ° некоторых веществ.

Соединение


(Дж∙моль –1∙K –1)

Соединение


(Дж∙моль –1∙K –1)

C (т)алмаз

C (т)графит

изо-C 4H 10(г)

Таблица 4.1.

Стандартные энтропии некоторых веществ.

Из табл. 4.1 следует, что энтропия зависит от:

  • Агрегатного состояния вещества. Энтропия увеличивается при переходе от твердого к жидкому и особенно к газообразному состоянию (вода, лед, пар).
  • Изотопного состава (H 2O и D 2O).
  • Молекулярной массы однотипных соединений (CH 4, C 2H 6, н-C 4H 10).
  • Строения молекулы (н-C 4H 10, изо-C 4H 10).
  • Кристаллической структуры (аллотропии) – алмаз, графит.

Наконец, рис. 4.3 иллюстрирует зависимость энтропии от температуры.

Следовательно, стремление системы к беспорядку проявляется тем больше, чем выше температура. Произведение изменения энтропии системы на температуру T ΔS количественно оценивает эту тендецию и называется энтропийным фактором .

Задачи и тесты по теме "Химическая термодинамика. Энтропия"

  • Химические элементы. Знаки химических элементов - Первоначальные химические понятия и теоретические представления 8–9 класс

    Уроков: 3 Заданий: 9 Тестов: 1

2.Стандартная энтропия веществ. Изменение энтропии при изменении агрегатного состояния веществ. Расчет изменения стандартной энтропии в химической реакции.
Энтропия (S) – термодинамическая функция состояния, которая служит мерой беспорядка (неупорядоченности) системы. Возможность протекания эндотермических процессов обусловлена изменением энтропии, ибо в изолированных системах энтропия самопроизвольно протекающего процесса увеличивается ΔS > 0 (второй закон термодинамики). Л. Больцман определил энтропию как термодинамическую вероятность состояния (беспорядок) системы W. Энтропия связана с термодинамической вероятностью соотношением: S = R · ln W
Размерность энтропии 1 моля вещества совпадает с размерностью газовой постоянной R и равна Дж∙моль–1∙K–1. Изменение энтропии *) в необратимых и обратимых процессах передается соотношениями ΔS > Q / T и ΔS = Q / T. Например, изменение энтропии плавления равно теплоте (энтальпии) плавления ΔSпл = ΔHпл/Tпл. Для химической реакции изменение энтропии аналогично изменению энтальпии ​

*) термин энтропия был введен Клаузиусом (1865 г.) через отношение Q / T (приведенное тепло).

Здесь ΔS° соответствует энтропии стандартного состояния. Стандартные энтропии простых веществ не равны нулю. В отличие от других термодинамических функций энтропия идеально кристаллического тела при абсолютном нуле равна нулю (постулат Планка), поскольку W = 1.

Энтропия вещества или системы тел при определенной температуре является абсолютной величиной.

Энтропия зависит от:
-агрегатного состояния вещества. Энтропия увеличивается при переходе от твердого к жидкому и особенно к газообразному состоянию (вода, лед, пар).
-изотопного состава (H2O и D2O).
-молекулярной массы однотипных соединений (CH4, C2H6, н-C4H10).
-строения молекулы (н-C4H10, изо-C4H10).
-кристаллической структуры (аллотропии) – алмаз, графит.

Изменение энтропии в процессе этого (твердое тело-жидкость) фазового перехода можно найти просто, если считать процесс равновесным.

Это вполне допустимое приближение, если считать, что разность температур между системой и тем объектом, который поставляет системе тепло, не слишком велика, намного меньше температуры плавления. Тогда можно использовать термодинамический смысл энтропии: с точки зрения термодинамики энтропия – это такая функция состояния системы, изменение которой dS в элементарном равновесном процессе равно отношению порции тепла δQ, которое система получает в этом процессе, к температуре системы Т:

Так как температура системы в данном фазовом переходе не меняется и равна температуре плавления, то подынтегральное выражение –это величина, которая в ходе процесса не меняется, поэтому она от массы m вещества не зависит. Тогда

Из этой формулы следует, что при плавлении энтропия возрастает, а при кристаллизации уменьшается. Физический смысл этого результата достаточно ясен: фазовая область молекулы в твердом теле гораздо меньше, чем в жидкости, так как в твердом теле каждой молекуле доступна только малая область пространства между соседними узлами кристаллической решетки, а в жидкости молекулы занимают всю область пространства. Поэтому при равной температуре энтропия твердого тела меньше энтропии жидкости. Это означает, что твердое тело представляет собой более упорядоченную, и менее хаотичную систему, чем жидкость.
Применение энтропии в этом (жидкость-газ) процессе можно найти просто, считая процесс равновесным. И опять это вполне допустимое приближение, при условии, что разность температур между системой и «поставщиком» тепла невелика, т.е. намного меньше температуры кипения. Тогда

Из формулы следует, что при испарении энтропия возрастает, а при конденсации уменьшается.
Физический смысл этого результата состоит в различии фазовой области молекулы в жидкости и газе. Хотя в жидкости и газе каждой молекуле доступна вся область пространства, занятая системой, но сама эта область для жидкости существенно меньше, чем для газа. В жидкости силы притяжения между молекулами удерживают их на определенном расстоянии друг от друга. Поэтому каждая молекула хотя и имеет возможность свободно мигрировать по области пространства, занятой жидкостью, но не имеет возможности «оторваться от коллектива» остальных молекул: стоит ей оторваться от одной молекулы, как тут же притягивается другая. Поэтому объем жидкости зависит от её количества и никак не связан с объемом сосуда.

Молекулы газа ведут себя иначе. У них гораздо больше свободы, среднее расстояние между ними таково, что силы притяжения очень малы, и молекулы «замечают друг друга» лишь при столкновениях. В результате газ всегда занимает весь объем сосуда.

Поэтому при равных температурах фазовая область молекул газа значительно больше фазовой области молекул жидкости, и энтропия газа больше энтропии жидкости. Газ, по сравнению с жидкостью, гораздо менее упорядоченная, более хаотичная система.

Изменение стандартной молярной энтропии в химической реакции определяется уравнением:

Следует обратить внимание на то, что изменение энтропии в рассмотренном примере оказывается отрицательным. Этого можно было ожидать, если учесть, что, согласно уравнению рассматриваемой реакции, суммарное количество газообразных реагентов равно 1,5 моль, а суммарное количество газообразных продуктов-только 1 моль. Таким образом, в результате реакции происходит уменьшение общего количества газов. Вместе с тем нам известно, что реакции горения принадлежат к числу экзотермических реакций. Следовательно, результатом их протекания является рассеяние энергии, а это заставляет ожидать возрастания энтропии, а не ее уменьшения. Далее, следует учесть, что горение газообразного водорода при 25°С, вызванное первоначальным инициированием, протекает затем самопроизвольно и с большой интенсивностью. Но разве не должно в таком случае изменение энтропии в данной реакции быть положительным, как того требует второй закон термодинамики? Оказывается - нет или по крайней мере не обязательно должно. Второй закон термодинамики требует, чтобы в результате самопроизвольного процесса возрастала суммарная энтропия системы и ее окружения. Вычисленное выше изменение энтропии характеризует только рассматриваемую химическую систему, состоящую из реагентов и продуктов, которые принимают участие в горении газообразного водорода при 25°С.