Работу выполнили ученицы группы Л10-4 Соболева Ольга и Уткина Екатерина
Откуда «энтропия»? Первым энтропию заметил Клаузиус (1876). Обнаружив в природе новую, ранее не изве6стную никому величину Клаузиус назвал ее странным и непонятным словом «энтропия», которое сам и придумал. Он так объяснил его значение; «тропе» по- гречески означает «превращение». К этому корню Клаузиус добавил две буквы – «эн», так чтобы получившееся слово было бы по возможности подобно слову «энергия». Обе величины настолько близки друг другу своей физической значимостью, что известное сходство в их названиях было целесообразно.
Энтропия-мера беспорядка. Чем больше порядка- тем меньше энтропия. И наоборот, чем меньше порядка- тем больше энтропия.
Так что же такое энтропия? Энтропия это производное понятие от понятия состояние объекта или фазовое пространство объекта. Она характеризует степень вариативности микросостояния объекта. Качественно, чем выше энтропия, тем в большем числе существенно различных микросостояний может находиться объект при данном макросостоянии. Можно дать другое определение, не такое строгое и точное, но более наглядное: энтропия – это мера обесцененной энергии, бесполезной энергии, которую нельзя использовать для получения работы. Энтропия это производное понятие от понятия состояние объекта или фазовое пространство объекта. Она характеризует степень вариативности микросостояния объекта. Качественно, чем выше энтропия, тем в большем числе существенно различных микросостояний может находиться объект при данном макросостоянии. Можно дать другое определение, не такое строгое и точное, но более наглядное: энтропия – это мера обесцененной энергии, бесполезной энергии, которую нельзя использовать для получения работы.
Зачем нужно понятие «энтропия»? Все реальные процессы, протекающие в действительности, не статические – все они необратимы. Их нельзя по желанию провести в прямом и обратном направлении, не оставив никакого следа в окружающем мире. Термодинамика должна помочь исследователям заранее узнать, пойдет ли реальный процесс, не осуществляя его в действительности. Для этого и нужно понятие «энтропия». Энтропия – это свойство системы, которое полностью определяется состоянием системы. Какими бы путями не перешла система из одного состояния в другое, изменение её энтропии будет всегда одно и тоже. Но вычислять изменение энтропии можно только на квазистатических путях.
Как вычислить энтропию? Уравнение Клаузиуса ΔS=S 2 -S 1 =(Q/T) обратимый Изменение энтропии при переходе системы из одного состояния в другое точно равно сумме приведенных теплот. Вычислить вообще энтропию системы или любого тела нельзя, как нельзя вообще определить его энергию. Вычислить можно только изменение энтропии при переходе системы из одного состояния в другое, если этот переход провести квазистатическим путём. Вычислить вообще энтропию системы или любого тела нельзя, как нельзя вообще определить его энергию. Вычислить можно только изменение энтропии при переходе системы из одного состояния в другое, если этот переход провести квазистатическим путём. Специального названия для единиц, в которых измеряют энтропию, не придумано. Ее измеряют в калория/моль*градус. Специального названия для единиц, в которых измеряют энтропию, не придумано. Ее измеряют в калория/моль*градус.
Зачем нужно знать энтропию? Применения понятие энтропии значительно упрощает сложные расчеты. Вот, например, как просто изображается в координатах T(S) (температура энтропия) тот же самый цикл Карно для одного моля идеального газа, в этом случае площадь цикла соответствует теплоте, полученной системой.
Связь энтропии и вероятности. С точки зрения молекулярно- кинетических представлений любая система стремиться перейти из менее вероятного состояния в более вероятное. Связь между вероятностью данного состояния системы и ее энтропии была установлена двумя знаменитыми учеными – Гиббсом и Больцманом. Энтропия всей системы равна сумме энтропий ее отдельных частей. S=S 1 +S 2 +…+Sn
В этой формуле k = R/N, где R – газовая постоянная, N – число Авогадро. По законам теории вероятности, вероятность данного состояния всего газа равна произведению вероятностей его отдельных частей. По законам теории вероятности, вероятность данного состояния всего газа равна произведению вероятностей его отдельных частей. W = W 1 *W 2 W = W 1 *W 2 Таким образом, суммированию энтропий соответствует умножение термодинамических вероятностей состояния отдельных частей. Итак, энтропия должна быть пропорциональна логарифму термодинамической вероятности Таким образом, суммированию энтропий соответствует умножение термодинамических вероятностей состояния отдельных частей. Итак, энтропия должна быть пропорциональна логарифму термодинамической вероятности S = k* In*w S = k* In*w
Подведем итоги. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого - - либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого - - либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь. Что бы мы не делали -- энтропия увеличивается, следовательно любыми своими действиями мы увеличиваем хаос, и, следовательно, приближаем "конец света". Вероятно, можно точно подсчитать, когда он, то есть "конец света", наступит, но я думаю, что ближайшие несколько миллиардов лет можно об этом не беспокоиться … Что бы мы не делали -- энтропия увеличивается, следовательно любыми своими действиями мы увеличиваем хаос, и, следовательно, приближаем "конец света". Вероятно, можно точно подсчитать, когда он, то есть "конец света", наступит, но я думаю, что ближайшие несколько миллиардов лет можно об этом не беспокоиться …
Использованная литература. Беседы по физике. М. И. Блудов 1992г. Беседы по физике. М. И. Блудов 1992г. Детская энциклопедия том 3. Москва 1966г. Детская энциклопедия том 3. Москва 1966г. Mikhail Garous – Entropy 1. Mikhail Garous – Entropy