Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать неотразимый комплимент Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?

Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Второй закон термодинамики. Первый закон термодинамики позволяет определить количественные соотношения между различными формами энергии





 

Первый закон термодинамики позволяет определить количественные соотношения между различными формами энергии, которые принимают участие в данном процессе. Но этот закон ничего не говорит о возможности протекания данного процесса и о направлении, в котором он будет развиваться. Ответ на этот вопрос дает второе начало термодинамики.

Мы уже знаем, что тепловая энергия, образуясь в организме, представляет конкретную форму связанной энергии биологических систем, т. к. в условиях жизнедеятельности она не может быть преобразована ни в одну из форм работы, совершаемой организмами. Чем же определяется эта энергия?

Вспомним, что Wсвяз. зависит от степени неупорядоченности молекулярного движения, а ее количественной мерой является температура, поэтому Wсвяз пропорциональна Т. Однако величина связанной энергии в разных системах, имеющих одинаковую температуру, не всегда одинакова. Следовательно, степень неупорядоченности молекулярного движения зависит не только от температуры, но и еще от каких-то свойств системы.

Эти свойства Клаузиус (1865) выразил в виде коэффициента, который однозначно определяет значение Wсвяз и Т. Коэффициент принято обозначать буквой S и называть ЭНТРОПИЕЙ. С вводом энтропии зависимость связанной энергии системы от ее температуры выглядит так : Wсвяз= ST, откуда S=Wсвяз/T. Размерность энтропии – [Дж/К]. Энтропия – это физическая величина, характеризующая значение связанной энергии данной системы, приходящаяся на единицу температуры (1 К).

Говоря о запасе энергии в какой-либо системе, интересуются прежде всего тем, какую работу она может совершить. Ясно, что при этом следует учитывать не полную, а только свободную энергию.

Пищевые продукты важны для человека потому, что он получает при их усвоении свободную энергию для совершения работы.

В ванне горячей воды содержится больший запас энергии, чем в килограмме хлеба, но за счет нее человек, погруженный в ванну, не способен совершить работу, т. к. почти вся энергия является связанной. Следовательно, энергия в различных формах имеет разную практическую ценность, которая тем выше, чем большую часть этой энергии можно преобразовать в работу, т. е. чем меньше доля связанной энергии, мерой которой служит энтропия.



Следовательно, чем ниже энтропия системы, тем выше ценность свойственной ей внутренней энергии. Мы помним, что превращение свободной энергии в связанную называется диссипацией (рассеянием) энергии. Необходимо понять, что такими превращениями сопровождаются любые преобразования более ценной формы энергии в менее ценную.

Например, преобразования химической энергии, заключенной в биологических макромолекулах, в тепловую есть диссипация энергии.

В природе (в биофизике и биохимии) часто трудно предвидеть, как будут происходить те или иные явления в интересующих нас условиях. Поэтому необходим алгоритм, который дал бы возможность достоверно предсказать направление процессов в любом случае. Термодинамика позволяет сформулировать такой алгоритм, – он получил название второго начала термодинамики. Проще всего он формулируется для изолированных систем: «в изолированной системе общее изменение энтропии всегда положительно» DS > 0.

Рассмотрим простой пример: пусть изолированная система состоит из двух тел «1» и «2», обладающих неодинаковой температурой Т12. Тело «1» отдает некоторое количество тепла Q, а тело “2” его получит (т. к. система изолирована, то никаких потерь тепла нет). Изменение энтропии «1-го» тела составит DS= - Q/T, а для «2-го» тела DS= + Q/T. Общее изменение энтропии DSобщ = DS1 +DS2, DSобщ= - Q/T1 + Q/T2= Q(1/T2 – 1/T1), т. к. Т12, то выражение в скобках положительно, и DS > 0. Такой процесс соответствует второму началу термодинамики и происходит самопроизвольно.

Итак: энтропия – это функция состояния системы; S – это физическая величина, количественно характеризующая особенности молекулярного строения системы, от которых зависят энергетические преобразования в ней, в частности направление; S – это мера неупорядоченности системы.

Эту связь энтропии с молекулярным строением системы первым объяснил
Л. Больцман в 1887 году. Он установил статистический смысл энтропии. Согласно Больцману (высокая упорядоченность имеет относительно низкую вероятность)

S = k ln W ,

где k – постоянная Больцмана k=R/Na= 1,37*10-23 Дж/К, W – термодинамическая вероятность состояния системы.

Термодинамической вероятностью называется число способов размещения частиц, т.е. число микросостояний, реализующих данное макросостояние. Из формулы Больцмана видно, что при повышении термодинамической вероятности возрастает и энтропия. Значит, всякая система, если на нее не действует внешняя сила, будет переходить из менее вероятного в более вероятное состояние (из порядка в хаос), т. е. направление всех реальных процессов в изолированной системе соответствует повышению термодинамической вероятности, а следовательно энтропия dS=dQ/T≥0 в необратимых процессах >0, в обратимых = 0.



Итак: в результате самопроизвольности процессов любая изолированная система стремится достичь состояния, обеспечивающего наибольший беспорядок, который обладает наибольшей вероятностью, т.е. состояния с максимальным значением энтропии S max.

Между S и W существует явная функциональная зависимость, то есть S=f(W) . Найдём вид этой функции:

Допустим имеются две термодинамических системы.

Энтропия и термодинамическая вероятность первой – S1 и W1

Энтропия и термодинамическая вероятность второй – S2 и W2

Вероятность и энтропия сложной системы, состоящей из этих двух систем – S и W

Общая энтропия равна S=S1+S2 , поскольку S=f(W), запишем это равенство таким образом f(W)=f(W1)+f(W2).

Общая вероятность сложной системы, в соответствии с теорией вероятности, равна произведению вероятностей, то есть W=W1×W2, а значит f(W1×W2)= f(W1)+f(W2).

Такому равенству удовлетворяет логарифмическая функция ln(W1×W2)=ln(W1)+ln(W2)

Таким образом S~lnW и окончательно S=klnW.

 






Date: 2015-05-09; view: 205; Нарушение авторских прав

mydocx.ru - 2015-2019 year. (0.006 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию