Интернет-журнал «Науковедение» ISSN 2223-5167 http ://naukovedenie.ru/ Том 7, №6 (2015) http ://naukovedenie. ru/index.php?p=vol7-6 URL статьи: http://naukovedenie.ru/PDF/72TVN615.pdf DOI: 10.15862/72TVN615 (http://dx.doi.org/10.15862/72TVN615)
УДК 530.1
Кочетков Андрей Викторович
ФГБОУ ВПО «Пермский национальный исследовательский политехнический университет»
Россия, г. Пермь Профессор Доктор технических наук E-mail: soni.81@mail.ru
Федотов Петр Викторович
ООО «Научно-исследовательский центр технического регулирования»
Россия, г. Саратов1 Инженер E-mail: klk50@mail.ru
О различных смыслах понятия «энтропия»
1 410022, г. Саратов, ул. Азина, д. 38 «В», кв. 4
Аннотация. В настоящее время существует понятие энтропии, которое с успехом применяется и в различных разделах физики, например в термодинамике, и статистической физике, и в различных разделах математики, например в теории информации, и теории вероятностей. Однако, в действительности это разные понятия, которые не стоит смешивать. Необходимо различать понятия энтропии в математике и в физике, термодинамике и в теории информации, в статистической физике и в теории вероятностей. Применяемый в литературе термин «энтропия» не однозначен. В действительности имеется несколько понятий. Применение одного и того же термина к различным физическим и не физическим величинам вносит путаницу в понимание смысла термина «энтропия». В термодинамике широко используется термин «энтропия» введенный Клаузиусом, получившим развитие в методе термодинамических потенциалов Гиббса и «энтропия» Гельмгольца, характеризует внутреннюю потенциальную энергию взаимодействия молекул между собой посредством дальнодействующих сил.
В статистической физике используется понятие энтропии, введенное Больцманом. Энтропия Больцмана характеризует поведение кинетической энергии молекул, в отличие от энтропии Клаузиуса.
Понятие энтропии, введенное Шенноном в теорию информации не имеет физического смысла, введено Шенноном исключительно на формальном сходстве математических формул, полученных в математике для марковских цепей и формулы энтропии Больцмана.
Ключевые слова: энтропия Клаузиуса; энтропия Больцмана; энтропия Шеннона; механическая энергия потенциальная энергия; кинематическая энергия; теплота; круговые процессы; полный дифференциал; определенная температура; идеальный газ.
Ссылка для цитирования этой статьи:
Кочетков А.В., Федотов П.В. О различных смыслах понятия «энтропия» // Интернет-журнал «НАУКОВЕДЕНИЕ» Том 7, №6 (2015) http://naukovedenie.ru/PDF/72TVN615.pdf (доступ свободный). Загл. с экрана. Яз. рус., англ. DOI: 10.15862/72ГУШ15
Статья опубликована 25.11.2015.
Введение.
В настоящее время существует понятие энтропии, которое с успехом применяется и в различных разделах физики, например в термодинамике, и статистической физике, и в различных разделах математики, например в теории информации, и теории вероятностей. Однако, в действительности это разные понятия, которые не стоит смешивать. Необходимо различать понятия энтропии в математике и в физике, термодинамике и в теории информации, в статистической физике и в теории вероятностей. Применяемый в литературе термин «энтропия» не однозначен. В действительности имеется несколько понятий. Применение одного и того же термина к различным физическим и не физическим величинам вносит путаницу в понимание смысла термина «энтропия».
Постановка задачи.
Энтропия в термодинамике.
Понятие энтропии в термодинамику ввел Клаузиус в 1865 г. в кратком докладе Парижской Академии наук «Sur les principes fondamentaux de la theorie mecanique de la chaleur»2.
В 1869 г. вышла книга Клаузиуса «Theorie mecanique de la chaleur»3, в которой автор подробно и основательно описал собственные идеи механической теории теплоты, в частности повторил вывод о необходимости введения понятия энтропии в описание термодинамических систем. Пока не будем касаться, каким образом и для каких целей Клаузиус вводил понятие энтропии, к этому вопросу вернемся чуть позднее.
Отметим, каким образом в современной термодинамике употребляется понятие энтропии, введенной Клаузиусом.
Клаузиус вводит понятие энтропии через уравнение:
dQ = dH + dL, (1)
где Q - теплота получаемая (отдаваемая) телом извне, H - внутренняя теплота, L -работа, совершаемая телом.
Исследуя круговые процессы, например, цикл Карно, Клаузиус приходит к выводу, что rdQ
интеграл: I- становится равным нулю, каждый раз когда тело возвращается к исходному
j t
состоянию (T - температура, градус кельвин). Клаузиус приходит к выводу, что величина, стоящая под знаком интеграла есть полный дифференциал некоей величины, которая зависит от состояния тела, но не от того как это состояние достигнуто. Клаузиус обозначил эту величину как
= dS или dQ = TdS [11, с. 143]. (2)
Величину S Клаузиус предложил назвать энтропией [11, с. 157].
Из сказанного ясно, что энтропия «в смысле Клаузиуса» - это некоторая величина, характеризующая количество теплоты, поглощенной или выделенной при определенной температуре. А т.к., Клаузиус всюду в своей работе отмечал, что «Во всех случаях, когда из
2 Об основных принципах механической теории тепла (пер. авт.).
3 Механическая теория тепла (пер. авт.).
теплоты появляется работа, тратится пропорциональное полученное работе количество тепла, и, наоборот при затрате той же работы получается тоже количество тепла» поэтому «Возможно превратить работу в теплоту и, наоборот, теплоту в работу, причем обе эти величины пропорциональны друг другу»[11, с. 91].
Приведенные в цитатах формулировки Клаузиус назвал «Первым началом термодинамики». Согласно Клаузиусу тепло - это один из видов энергии. Соответственно, энтропия по Клаузиусу - это величина, характеризующая энергетическое состояние. Причем величина TdS - это энергия.
То, что величина TdS является ничем иным, как одним из видов энергии, лучше всего видно из основного уравнения термодинамики равновесных процессов:
TdS = dU+Рс1¥ (3)
где и - внутренняя энергия; РёУ - производимая работа [4, с. 130].
Т.к. в (2) в правой части стоят энергия и работа, то в левой части должна быть энергия. Назовем величину TdS «энергией Клаузиуса».
Как известно под общим термином «энергия» в физике понимается достаточно много разных частных видов энергии, например в механике сосуществуют два вида энергии: кинетическая и потенциальная. В других разделах существуют другие виды энергии. Поэтому рассмотрим внимательнее, какой вид энергии может скрываться под видом «энергии Клаузиуса».
Отметим некоторые свойства энергии Клаузиуса в связи со вторым началом термодинамики для необратимых процессов.
«Для произвольного цикла:
Ц < 0 = $dS 0. (4)
Тогда для открытых процессов вместо равенства (2) имеем неравенство:
dS >Ц-. (5)
Это и есть второе начало термодинамики в самом общем виде, относящееся как к обратимым (равенство), так и к необратимым процессам (неравенство). Обратимые процессы второе начало термодинамики описывает количественно, а необратимые - качественно. Наиболее известное следствие в этом случае относится к адиабатическим процессам, сформулированное Клаузиусом как «принцип возрастания энтропии в изолированной системе»:
dS > 0. (6)
Энтропия неизменна в равновесном процессе, а в неравновесном возрастает. Примером первого является равновесное адиабатическое расширение газа, совершающего при этом работу. Если система изолирована не только адиабатически, но и механически 5Л = 0, как при расширении в пустоту, то энтропия возрастает. Ее изменение, очевидно, равно изменению энтропии в равновесном процессе, идущим между теми же начальными и конечными состояниями» [5, с. 31].
Отметим утверждение, что при совершении работы энтропия неизменна, а при отсутствии работы (расширение в пустоту) энтропия возрастает. Это явная ошибка, суть которой раскрывается в следующей фразе: «Существенно, что равновесные возвращения в
исходную точку не осуществляются адиабатически, а требуют отведения тепла, эквивалентного «извлечению» энтропии из системы для приведения её в начальное состояние» [5, с. 31]. Ошибка состоит в том, что неявно предполагается, что при расширении газа в пустоту, без совершения работы, газ остается при той же температуре, что была до расширения. В действительности газы при адиабатическом расширении, даже без совершения работы, охлаждаются4. Т.е. теряют тепло, этот эффект носит название эффект Джоуля-Томпсона. Поэтому, нельзя говорить, что процесс расширения газа в пустоту необратим, из-за того, что при обратном процессе сжатия необходим отвод тепла. На самом деле, процесс полностью обратимый, т.к. при расширении в пустоту, без совершения внешней работы - газ охлаждается, а при обратном сжатии он нагревается. Таким образом, повышение температуры при сжатии компенсирует понижение температуры при расширении. Процесс в общем случае полностью обратим.
Причина подобных ошибок в процессе идеализации газа. Согласно определению идеальный газ - это модель газа, в которой:
• между молекулами отсутствуют силы взаимного притяжения;
• сами молекулы принимаются за материальные точки;
• взаимодействия между молекулами сводится к их абсолютно упругим ударам.
В идеальном газе молекулы могут иметь только кинетическую энергию, но не имеют потенциальной [8, с. 74], т.к. между молекулами отсутствуют силы взаимодействия, кроме упругих ударов. Именно постулат об отсутствии взаимного потенциального воздействия молекул в газах и приводит к ошибкам, подобным приведенным выше.
«Вид функции U(T) определяется эмпирически или теоретически методами статистической механики. При нормальных температурах соотношение U(T) = n C0vT является хорошим приближением для большинства чистых газов» [7, с. 25]. Т.е. внутренняя энергия зависит от количества молей n, молярной теплоемкости при постоянном объеме C0v, и абсолютной температуры Т. при этом «С помощью второго закона термодинамики можно показать, что внутренняя энергия идеального газа не зависит от объема» [7, с. 25]. Но, ясно, что при изменении объема одного и того же количества молекул будет изменяться взаимное расстояние между молекулами, т.е. потенциальная энергия взаимодействия молекул. Т.е., внутренняя энергия идеального газа есть ни что иное, как кинетическая энергия молекул газа5.
Рассмотрим поведение молекул газа и их энергии при расширении в пустоту. В таком случае, т.к. внешняя работа по расширению газа не происходит, а процесс адиабатический, значит, кинетическая энергия молекул идеального газа не должна изменяться, потому, что изменяется только средние расстояния между молекулами, но не их скорости. Тем не менее, в реальности кинетическая энергия молекул падает, т.к. падает температура, что не может быть объяснено без привлечения понятия потенциальной энергии молекул. Если ввести понятие потенциальной энергии для молекул газа, то будет совершенно понятно, уменьшение кинетической энергии молекул (температуры) при адиабатическом расширении газа в пустоту. Уменьшение кинетической энергии объясняется (в этом случае) законом сохранения
4 В действительности, не все реальные газы охлаждаются при расширении, некоторые наоборот нагреваются. Поэтому различают положительный эффект, если температура газа при расширении падает и отрицательный эффект, если температура растет (прим. авт.).
5 На самом деле, в понятие внутренней энергии входят также и внутренняя энергия момлекул: энергия возбужденных электронов, энергия возбуждения ядер, энергия вращения атомов несимметричных молекул и т.д. [1, с. 25].
энергии, согласно которому сумма кинетической и потенциальной энергий сохраняется. При расширении газа увеличиваются расстояния, уменьшается потенциальная энергия молекул, соответственно уменьшается и кинетическая. При этом, во всех учебниках по термодинамике отсутствует понятие потенциальной энергии молекул газа, но присутствует понятие энтропии в виде члена TdS, и при этом утверждается, что при расширении газа в пустоту энтропия растет.
С полной уверенностью можно утверждать, что т.н. «энергия Клаузиуса» - это аналог потенциальной энергии газа. Которая растет и убывает при перераспределении взаимного положения молекул газа.
Остается только уточнить вопрос со знаками. Дело в том, что в механике считается, что в потенциальная энергия в устойчивом состоянии всегда минимальна, а для энтропии наоборот, во всех процессах энтропия растет.
Для того, чтобы это выяснить, необходимо рассмотреть метод потенциалов в термодинамике.
«Описание равновесных термодинамических процессов может быть выполнено с помощью метода термодинамических потенциалов, разработанного в 1873-78 годах американским физиком-теоретиком Джозайя Уиллардом Гиббсом (1839-1903). Этот метод аналогичен использованию в механике потенциальной энергии для описания консервативных механических систем» [4, с. 130]. Отметим ключевую фразу «аналогично потенциальной энергии в механике».
При применении метода термодинамических потенциалов вводится две функции: энергия (потенциал) Гиббса и энергия (потенциал) Гельмгольца.
Функция «Р = и - Т£ называется энергией Гельмгольца или свободной энергией», а «величина Т£ называется связанной энергией» [1, с. 104].
А функция «0(Т, р) = и - Т£ + рУ является характеристической функцией в переменных Т и р и называется энергией Гиббса (термодинамический потенциал Гиббса)» [ 1, с. 105].
Здесь всюду Т - температура; и - внутренняя энергия; £ - энтропия; р - давление; У -
объем.
Легко видеть, что при отсутствии выполнения работы функция Гиббса сводится к энергии Гельмгольца. Причем все изменения энергии Гельмгольца могут происходить только за счет изменения внутренней энергии и энтропии.
Также из вида функций Гиббса и Гельмгольца видно, что связанная энергия ТБ входит с обратным знаком, т.е. при увеличении энтропии Б энергии Гиббса и Гельмгольца будут стремиться к минимуму, именно потому, что во все уравнения термодинамики свободная энергия входит с обратным знаком (-ТБ).
Значение введения термодинамических потенциалов Гиббса и Гельмгольца состоит в том, что все процессы в термодинамике и в химии происходят в направлении уменьшения потенциалов Гиббса и Гельмгольца. А устойчивое равновесие наступает при минимуме энергии Гиббса или энергии Гельмгольца [1, с. 123], а т.к. свободная энергии входит с обратным знаком (-Т£), значит, устойчивое равновесие и химическое и термодинамическое наступает при максимуме энтропии, т.к. при этом свободная энергия с обратным знаком (-Т£) будет минимальна. Сказанное полностью соответствует положению в механике, согласно которому устойчивое равновесие механической системы наступает при минимуме
потенциальной энергии. Это является лишним подтверждением механической теории теплоты.
Последнее, что стоит отметить, это то, что исключение понятия взаимного потенциального взаимодействия молекул из понятия «идеального газа» приводит к множеству разных парадоксов, в частности к заявлению, что адиабатное расширение газа в пустоту является необратимым. Также можно показать, что появление парадокса Гиббса также связано с тем, что принято считать, что в идеальном газе молекулы не взаимодействуют между собой с потенциальными силами.
Энтропия в статистической физике.
В статистической механике энтропия входит в уравнение Больцмана6:
5 = к 1п Р, (7)
где 5 - энтропия данного состояния; к - постоянная Больцмана; Р - вероятность данного состояния.
Несмотря на то, что энтропия в статистической физике называется тем же термином, что и в термодинамике, тем не менее, при внимательном рассмотрении оказывается, что энтропия по Клаузиусу (2) и энтропия по Больцману - это существенно разные понятия.
Чтобы понять, в чем принципиальная разница между двумя понятиями энтропии, необходимо вспомнить, каким образом Больцман ввел понятие энтропии в статистическую физику.
Больцман рассматривал статистические ансамбли7 и выводил формулу наиболее вероятных состояний (распределение Больцмана) исходя из двух начальных постулатов [3, с. 22].
Постулат определенного количества членов статистического ансамбля:
т
N = 1П ,
1=1
где N - общее количество частиц в статистическом ансамбле; п - количество частиц в г-ой фазовой ячейке; т - количество фазовых ячеек.
И постулат конечности энергии системы:
т
Е = Е Пг8г ,
1=1
где Е - полная энергия системы; ег - энергия частицы в г-ой фазовой ячейке.
Причем Больцман явно говорит, что он рассматривает только кинетическую энергию молекул:
«Представим себе, что пространство заполнено многочисленными молекулами газа, каждая из которых есть просто материальная точка. Каждая молекула движется большую
6 «В действительности сам Больцман никогда не вводил величины к, а всегда пользовался газовой постоянной R (= kNA). Мейсснер предложил называть величину к постоянной Больцмана — Планка. Интересно, что Лоренц ту же величину часто называл постоянной Планка» [8, с. 133].
7 Статистический ансамбль - система, состоящая из очень большого количества членов.
Макроскопическая система молекул газа, вполне подходит под определение статистического ансамбля.
часть времени по прямой линии с постоянной скоростью8. Две молекулы начинают взаимодействовать друг с другом, только если они случайно окажутся близко друг к другу. Этот процесс, когда две молекулы взаимодействуют друг с другом, я называю соударением двух молекул» [2, с. 126].
Из этого следует, что в отличие от энтропии Клаузиуса энтропия Больцмана описывает поведение кинетической энергии. Во-вторых, энтропия Больцмана тесно связана с теорией вероятностей.
В самом деле, энтропия Клаузиуса стремится к максимуму в силу того, что свободная энергия термодинамической системы (энергия Клаузиуса Т£ с обратным знаком), равная внутренней потенциальной энергии взаимодействия молекул, стремится к минимуму, согласно механическому принципу, что в стационарном состоянии потенциальная энергия минимальна. В тоже время не существует механического принципа о распределении кинетической энергии механической системы. В связи с этим Больцман говорит о вероятности распределения кинетической энергии молекул газа.
«Так как молекулы крайне многочисленны и движутся очень быстро, то мы можем воспринимать только усредненные величины. Закономерность этих средних величин можно сравнить с удивительным постоянством средних чисел, вводимых с помощью статистики для явлений, которые определяются совершенно не поддающимся учету взаимодействием многих факторов... Определение средних величин составляет задачу теории вероятностей. Следовательно, проблемы механической теории тепла также представляют собой задачи теории вероятностей» [2, с. 125].
Т.о. понимая, что для кинетической энергии нет механических принципов устойчивого распределения, Больцман сводит задачу распределения кинетической энергии между молекулами газа к задаче наиболее вероятного распределения. Как в последующих работах Больцмана, так и в работах Смулуховского и Эйнштейна [14] доказывается, что распределение кинетической энергии молекул газа не является обязательным, оно является наиболее вероятным. Другими словами, уравнение (7) показывает не детерминированное распределение кинетических энергий молекул газа, а наиболее вероятное.
Т.о. можно зафиксировать два принципиальных отличия «энтропии Клаузиуса» и «энтропии Больцмана». Во-первых, энтропия Клаузиуса определяет внутреннюю потенциальную энергию взаимодействия молекул, в тоже время энтропия Больцмана характеризует кинетическую энергию молекул. Во-вторых, энтропия Клаузиуса определяет потенциальную энергию молекул как определенную величину, достигающую минимального значения в равновесном состоянии системы и не изменяющуюся, в силу механического принципа минимума потенциальной системы. А энтропия Больцмана характеризует не определенное распределение кинетической энергии, а только наиболее вероятное, которое может нарушаться и постоянно нарушается наличием флуктуаций.
Энтропия в теории информации.
В теории информации нет, и не может быть, понятия «энергия». И уже, поэтому ясно, что попытки ввести в теорию информации понятие энтропии, используя энергетические выкладки Клаузиуса, обречены на провал.
8 По инерции, в виду отсутствия действующих потенциальных сил (прим. авт.). 8
Тем не менее, понятие энтропии широко используется понятие энтропии. Но, в отличие от энтропии Клаузиуса, энтропия в теории информации на основе предложений Шеннона, вводится как некая величина вида:
где Н - некоторая положительная величина; К - положительная константа, определяющая выбор единицы измерения; рг - вероятность г-го события.
Величина Н в (3) по предложению Шеннона, называется энтропией множества вероятностейр1, ...., рп [14, с. 261].
Из вышеизложенного ясно видны различия в определении энтропии. Если в термодинамике Клаузиуса энтропия - величина, характеризующая энергетическое состояние системы, то в теории информации, энтропия характеризует степень неопределенности (вероятности) событий.
Рассмотрим, каким образом Шеннон вводит понятие энтропии в теории информации.
«Предположим, что имеется некоторое множество возможных событий, вероятности которых суть р1, р2, ■.., рп. Эти вероятности известны, но это - все, что нам известно относительно того, какое событие произойдет. Можно ли найти меру того, насколько велик «выбор» из такого набора событий или сколь неопределенен для нас его исход?» [14, с. 259]. И Шеннон находит такую меру, в виде (3) и предлагает назвать её «энтропией», т.к. «Форма9 величины Н оказывается такой же, как и форма энтропии, определяемой в статистической механике, где рг - вероятность того, что система находится в ячейке г фазового пространства»
Более конкретно, без ссылок на физические аналогии, понятие энтропии дано в статье А.Я. Хинчина «Если мы реализуем то испытание, возможные исходы которого описываются данной схемой А, то мы получаем тем самым некоторую информацию (узнаем, какое из событий Ак действительно наступило), и неопределенность данной схемы полностью ликвидируется.
Можно, таким образом, сказать, что информация, которую даёт нам реализация какого-либо испытания, состоит в снятии той неопределённости, которая предшествовала этому испытанию. Чем больше была эта неопределённость, тем выше мы должны оценивать информацию, полученную нами в результате её ликвидации. А так как неопределённость конечной схемы А мы условились измерять её энтропией Н(А), то количество информации, даваемое ликвидацией этой неопределённости, естественно считать возрастающей функцией величины Н (А)» [12].
Обсуждение.
В приведенной цитате явно сказано, что понятие энтропии в математике является субъективным, т.к. испытания проводит субъект и информацию о результатах получает также субъект. Причем наличие или отсутствие информации никак не отражается на объективных процессах, происходящих в природных объектах. Другими словами, понятие энтропии в математике является абсолютно абстрактным. И подтверждается это следующими словами: «Выбор этой функции означает выбор той или иной шкалы для количества информации и с принципиальной точки зрения может считаться безразличным. Однако доказанные нами
9 Математическая (прим. авт.).
(3)
[13, с. 261].
выше свойства энтропии показывают, что чрезвычайно удобно считать это количество информации просто пропорциональным энтропии» [12].
Т.е., выбор шкалы совершенно безразличен, но удобно считать, что шкала выражена в единицах энтропии. Этим понятие энтропии в математике принципиально отличается от понятия энтропии в физике. В физике понятие энтропии объективно, и не зависит от удобства субъективного восприятия.
«Как было установлено К. Шенноном, информация I о системе, получаемая при наблюдении за системой, связана с происходящим при этом изменением вероятности состояния системы таким же соотношением (с точностью до знака), как и уравнение Больцмана S = к lnW. Это формальное сходство выражений для термодинамической энтропии S и уменьшение информации I («информационной энтропии» по Шеннону) привело многих авторов к необоснованному отождествлению термодинамической энтропии с «информационной энтропией», хотя последняя не является термодинамическим параметром10. Использование одного и того же термина (энтропия) лишь вводит в заблуждение» [1, с. 73].
Совершенно аналогичная ситуация наблюдается при рассмотрении понятия «пространство» в физике и математике. Если в физике «Пространство и время - категории, обозначающие основные формы существования материи. Пространство выражает порядок сосуществования отдельных объектов», то в математике «Пространство - это непустое множество V, для элементов которого определено сложение и умножение на действительные числа», подробно вопрос о математическом и физическом понятиях пространство разбирается в монографии авторов [6].
Выводы.
1. Применяемый в современной литературе термин «энтропия» не однозначен. В действительности имеется несколько понятий, скрывающимися за однородным термином. Применение одного и того же термина к различным физическим и не физическим величинам вносит путаницу в понимание смысла термина «энтропия».
2. В термодинамике широко используется термин «энтропия» введенный Клаузиусом, получившим развитие в методе термодинамических потенциалов Гиббса и Гельмгольца, характеризует внутреннюю потенциальную энергию взаимодействия молекул между собой, посредством дальнодействующих сил.
3. В статистической физике используется понятие энтропии, введенное Больцманом. Энтропия Больцмана характеризует поведение кинетической энергии молекул, в отличие от энтропии Клаузиуса.
4. Понятие энтропии, введенное Шенноном в теорию информации, не имеет физического смысла, введено Шенноном исключительно на формальном сходстве математических формул, полученных в математике для марковских цепей и формулы энтропии Больцмана.
10 Точнее, не является физическим параметром (прим. авт.). 10
ЛИТЕРАТУРА
1. Базаров И.П. Термодинамика. - М.: Высшая школа. 1991. 376 с.
2. Больцман Л. Избранные труды. - М.: Наука. 1984. 590 с.
3. Борн М. Атомная физика. - М.: Мир. 1965. 480 с.
4. Глаголев К.В., Морозов А.Н. Физическая термодинамика. - М.: Изд-во МГТУ им. Н.Э. Баумана, 2003. 272 с.
5. Докторов А.Б., Бурштейн А.И. Термодинамика. Курс лекций. - Новосибирск, Новосиб. гос. ун-т. 2003. 82 с.
6. Кочетков А.В., Федотов П.В. Проблемы гармонизации радикальных противоречий в аксиоматике естественных наук. - М.: Машиностроение. 2015. 320 с.
7. Кубо Р. Термодинамика. - М.: Мир. 1970. 304 с.
8. Лавров Л.И., Круковский О.Н., Марков А.В., Томильцев Е.А. Техническая термодинамика. - СПб.: СПбГТИ(ТУ), 2009. 116 с.
9. Тер-Хаар Д. К истории статистики фотонов // Успехи физических наук. 1969. Том 99. Вып. 1. С. 129-140.
10. Техническая термодинамика, 2-е изд. / Под ред. В.И. Крутова. - М.: Высшая школа, 1981. 439 с.
11. Клаузиус Р. Механическая теория тепла - В кн.: Второе начало термодинамики / Под. ред. А.К. Тимирязева. - М.-Л., 1934. 312 с.
12. Хинчин А.Я. Понятие энтропии в теории вероятностей // Успехи математических наук. 1953. Том 8, выпуск 3 (55). С. 3-20.
13. Шеннон К. работы по теории информации и кибернетике. - М.: Изд-во Иностранной литературы, 1963. 829 с.
14. Эйнштейн А., Смолуховский М., Броуновское движение. Сб. ст., - М.-Л., 1936. 608 с.
Рецензент: Статья рецензирована членами редколлегии журнала.
Kochetkov Andrey Viktorovich
Perm national research polytechnical university
Russia, Perm E-mail: soni.81@mail.ru
Fedotov Petr Viktorovich
JSC Research Center of Technical Regulation
Russia, Saratov E-mail: klk50@mail.ru
About various meanings of the concept "entropy"
Abstract. Now there is a concept of entropy which with success is applied and in various sections of physics, for example in thermodynamics, and statistical physics, and in various sections of mathematics, for example in the theory of information, and probability theory. However, actually it is different concepts which you shouldn't mix. It is necessary to distinguish concepts of entropy of mathematics and of physics, thermodynamics and of the theory of information, of statistical physics and of probability theory. The term "entropy" applied in literature isn't unambiguous. Actually there are some concepts. Application of the same term to various physical and not physical quantities brings confusion in understanding of sense of the term "entropy". In thermodynamics the term "entropy" entered by Klauzius who gained development in a method of thermodynamic potentials of Gibbs and Helmholtz is widely used characterizes internal potential energy of interaction of molecules among themselves by means of the dalnodeystvuyushchikh of forces.
In statistical physics the concept of entropy entered by Boltzmann is used. Boltzmann's entropy characterizes behavior of kinetic energy of molecules, unlike Klauzius's entropy.
The concept of entropy entered by Shannon into the theory of information doesn't make physical sense, is entered by Shannon only on formal similarity of the mathematical formulas received in mathematics for Markov chains and a formula of entropy of Boltzmann.
Keywords: klauzius's entropy; Boltzmann's entropy; Shannon's entropy; mechanical energy potential energy; kinematic energy; warmth; circular processes; full differential; certain temperature; ideal gas.
REFERENCES
1. Bazarov I.P. Thermodynamics. - M.: Higher School, 1991. 376 pp.
2. Boltzmann L. Selected works. - M.: Nauka, 1984. 590 p.
3. Born, M. Atomic Physics. - M.: Mir. 1965. 480 p.
4. Glagolev K.V., Morozov A.N. Physical thermodynamics. - M.: Publishing House of the MSTU. N.E. Bauman, 2003. 272 p.
5. Doctors A.B., Burstein A.I .Thermodynamics. Lecture course. - Novosibirsk, Novosib. state. Univ. 2003. 82.
6. Kochetkov A.V., P.V. Fedotov Problems of harmonization of radical contradiction in the axioms of science. - M.: Mechanical engineering. 2015. 320 p.
7. R. Kubo Thermodynamics. - M.: Mir, 1970. 304 c.
8. Lavrov L.I., Krukovskiy O.N., Markov A.V, Tomiltsev E.A. Technical thermodynamics. - SPb.: SPbSTI (TU), 2009. 116 p.
9. Ter Haar On the history of the photon statistics // Successes of physical sciences. 1969. Is 99. No. 1. P. 129-140.
10. Technical Thermodynamics, 2nd ed / Ed. V.I. Krutov. - M.: High School. 1981. 439 p.
11. R. Clausius mechanical theory of heat - In the book.: The second law of thermodynamics / Under. Ed. A.K. Timiryazev. - M.-L., 1934. 312 p.
12. Khinchin A. Ya entropy concept in probability theory // Successes of Mathematical Sciences, 1953, Volume 8, Issue 3 (55). P. 3-20.
13. Shannon K. work on information theory and cybernetics. - M.: Publishing House of Foreign Literature, 1963. 829 p.
14. A. Einstein, Smoluchowski M., Brownian motion. Coll. Art. - M.-L., 1936. 608 p.