Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
|
Второй закон термодинамики. Первый закон термодинамики позволяет определить количественные соотношения между различными формами энергии
Первый закон термодинамики позволяет определить количественные соотношения между различными формами энергии, которые принимают участие в данном процессе. Но этот закон ничего не говорит о возможности протекания данного процесса и о направлении, в котором он будет развиваться. Ответ на этот вопрос дает второе начало термодинамики. Мы уже знаем, что тепловая энергия, образуясь в организме, представляет конкретную форму связанной энергии биологических систем, т. к. в условиях жизнедеятельности она не может быть преобразована ни в одну из форм работы, совершаемой организмами. Чем же определяется эта энергия? Вспомним, что Wсвяз. зависит от степени неупорядоченности молекулярного движения, а ее количественной мерой является температура, поэтому Wсвяз пропорциональна Т. Однако величина связанной энергии в разных системах, имеющих одинаковую температуру, не всегда одинакова. Следовательно, степень неупорядоченности молекулярного движения зависит не только от температуры, но и еще от каких-то свойств системы. Эти свойства Клаузиус (1865) выразил в виде коэффициента, который однозначно определяет значение Wсвяз и Т. Коэффициент принято обозначать буквой S и называть ЭНТРОПИЕЙ. С вводом энтропии зависимость связанной энергии системы от ее температуры выглядит так: Wсвяз= ST, откуда S=Wсвяз/T. Размерность энтропии – [Дж/К]. Энтропия – это физическая величина, характеризующая значение связанной энергии данной системы, приходящаяся на единицу температуры (1 К). Говоря о запасе энергии в какой-либо системе, интересуются прежде всего тем, какую работу она может совершить. Ясно, что при этом следует учитывать не полную, а только свободную энергию. Пищевые продукты важны для человека потому, что он получает при их усвоении свободную энергию для совершения работы. В ванне горячей воды содержится больший запас энергии, чем в килограмме хлеба, но за счет нее человек, погруженный в ванну, не способен совершить работу, т. к. почти вся энергия является связанной. Следовательно, энергия в различных формах имеет разную практическую ценность, которая тем выше, чем большую часть этой энергии можно преобразовать в работу, т. е. чем меньше доля связанной энергии, мерой которой служит энтропия. Следовательно, чем ниже энтропия системы, тем выше ценность свойственной ей внутренней энергии. Мы помним, что превращение свободной энергии в связанную называется диссипацией (рассеянием) энергии. Необходимо понять, что такими превращениями сопровождаются любые преобразования более ценной формы энергии в менее ценную. Например, преобразования химической энергии, заключенной в биологических макромолекулах, в тепловую есть диссипация энергии. В природе (в биофизике и биохимии) часто трудно предвидеть, как будут происходить те или иные явления в интересующих нас условиях. Поэтому необходим алгоритм, который дал бы возможность достоверно предсказать направление процессов в любом случае. Термодинамика позволяет сформулировать такой алгоритм, – он получил название второго начала термодинамики. Проще всего он формулируется для изолированных систем: «в изолированной системе общее изменение энтропии всегда положительно» DS > 0. Рассмотрим простой пример: пусть изолированная система состоит из двух тел «1» и «2», обладающих неодинаковой температурой Т1>Т2. Тело «1» отдает некоторое количество тепла Q, а тело “2” его получит (т. к. система изолирована, то никаких потерь тепла нет). Изменение энтропии «1-го» тела составит DS= - Q/T, а для «2-го» тела DS= + Q/T. Общее изменение энтропии DSобщ = DS1 +DS2, DSобщ= - Q/T1 + Q/T2= Q(1/T2 – 1/T1), т. к. Т1>Т2, то выражение в скобках положительно, и DS > 0. Такой процесс соответствует второму началу термодинамики и происходит самопроизвольно. Итак: энтропия – это функция состояния системы; S – это физическая величина, количественно характеризующая особенности молекулярного строения системы, от которых зависят энергетические преобразования в ней, в частности направление; S – это мера неупорядоченности системы. Эту связь энтропии с молекулярным строением системы первым объяснил S = k ln W, где k – постоянная Больцмана k=R/Na= 1,37*10-23 Дж/К, W – термодинамическая вероятность состояния системы. Термодинамической вероятностью называется число способов размещения частиц, т.е. число микросостояний, реализующих данное макросостояние. Из формулы Больцмана видно, что при повышении термодинамической вероятности возрастает и энтропия. Значит, всякая система, если на нее не действует внешняя сила, будет переходить из менее вероятного в более вероятное состояние (из порядка в хаос), т. е. направление всех реальных процессов в изолированной системе соответствует повышению термодинамической вероятности, а следовательно энтропия dS=dQ/T≥0 в необратимых процессах >0, в обратимых = 0. Итак: в результате самопроизвольности процессов любая изолированная система стремится достичь состояния, обеспечивающего наибольший беспорядок, который обладает наибольшей вероятностью, т.е. состояния с максимальным значением энтропии S max. Между S и W существует явная функциональная зависимость, то есть S=f(W). Найдём вид этой функции: Допустим имеются две термодинамических системы. Энтропия и термодинамическая вероятность первой – S1 и W1 Энтропия и термодинамическая вероятность второй – S2 и W2 Вероятность и энтропия сложной системы, состоящей из этих двух систем – S и W Общая энтропия равна S=S1+S2 , поскольку S=f(W), запишем это равенство таким образом f(W)=f(W1)+f(W2). Общая вероятность сложной системы, в соответствии с теорией вероятности, равна произведению вероятностей, то есть W=W1×W2, а значит f(W1×W2)= f(W1)+f(W2). Такому равенству удовлетворяет логарифмическая функция ln(W1×W2)=ln(W1)+ln(W2) Таким образом S~lnW и окончательно S=klnW.
|