УДК 519.722 + 536.751 UDC 519.722 + 536.751
СИНЕРГЕТИЧЕСКАЯ ТЕОРИЯ SYNERGETIC INFORMATION THE-
ИНФОРМАЦИИ Часть 3. Информаци- ORY Part 3. Information functions and онные функции и энтропия Больцмана Boltzmann entropy
Вяткин Виктор Борисович, к.т.н. Vyatkin Victor Borisovich. Dr.Sc.(Tech.)
Екатеринбург, Россия Ekaterinburg, Russia
В статье показывается, что информацион- In the article it is shown that information-но-синергетические функции, в лице отра- synergistic functions, in the face reflected жаемой информации, аддитивной негэн- information, additive negentropy and en-тропии и энтропии отражения, имеют не- tropy of reflection, they have direct interrela-посредственную взаимосвязь с энтропией tion with Boltzmann entropy.
Больцмана.
Ключевые слова: ЭНТРОПИЯ Keywords: BOLTZMANN ENTROPY,
БОЛЬЦМАНА, ИНФОРМАЦИОННО- INFORMATION-SYNERGISTIC СИНЕРГЕТИЧЕСКИЕ ФУНКЦИИ, FUNCTIONS, THERMODYNAMIC
ТЕРМОДИНАМИЧЕСКАЯ PROBABILITY, IDEAL GAS
ВЕРОЯТНОСТЬ, ИДЕАЛЬНЫЙ ГАЗ
«Развитие теории информации, и в частности связь этой теории с термодинамикой, происходило в недавнее время, поэтому в будущем вполне могут появиться новые непредугаданные результаты»
П. Шамбадаль.
Введение
Ранее [1] было установлено, что информация Ia , отражаемая произвольной системой А через совокупность своих частей B1, B2,..., Bn , раз-
деляется на отраженную и неотраженную части, равные аддитивной негэн-тропии Is и энтропии отражения S, соответственно. То есть:
Ia = h + S (1)
При этом:
IA = l°g2 MA (2)
IS = ^-------В- log2 M b.
Ma '
nmB
(3)
(4)
где: Ма - общее количество элементов в составе системы А; Мв - количество элементов в составе В; части.
Выражение (1) занимает в синергетической теории информации ключевое положение и, в зависимости от того, с каких позиций рассматривается, имеет несколько качественно различных интерпретаций. - Так, в отношении собственно отражения системы, как единого целого, выражение (1) интерпретируется как информационный закон отражения. Если рассматривается структура системы со стороны ее упорядоченности и хаотичности, то соотношение (1) выражает закон сохранения суммы хаоса и порядка. С позиций соотношения и взаимных переходов друг в друга различных видов информации (связанной с управлением и существующей независимо от него), данное выражение представляет собой закон сохранения информации на межвидовом информационном уровне. И, наконец, с позиций различных подходов к определению понятия «количество информации», выражение (1) показывает неразрывную взаимосвязь комбинаторного, вероятностного и синергетического подходов.1
В настоящей статье показывается, что дополнительно к указанным интерпретациям, информационное соотношение (1), с термодинамических позиций, характеризует переход изолированной системы идеальных газов из структурно-упорядоченного состояния в состояние термодинамического равновесия, а каждая из информационно-синергетических функций (2) -(4) при определенных условиях имеет непосредственную взаимосвязь с энтропией Больцмана.
1 Подробное описание приведенных интерпретаций выражения (1) дано в работе [1].
Взаимосвязь информационно-синергетических функций и термодинамической энтропии Больцмана
Макроскопическое состояние той или иной термодинамической системы, состоящей из конечного множества элементов (атомов, молекул), традиционно характеризуется с помощью энтропии Больцмана (Е), статистически выражающей второе начало термодинамики и имеющей вид:
Е = к 1п Ж, (5)
— 23
где: к = 1,38 • 10 дж/ град - постоянная Больцмана, а Ж - термодинами-
ческая вероятность, представляющая собой число возможных микросостояний системы, посредством которых может быть реализовано данное макросостояние.
При этом напомним, что термодинамическая вероятность Ж является однозначной функцией макросостояния системы, достигает своего максимального значения, когда система приходит в состояние термодинамического равновесия и обладает свойством мультипликативности. То есть вероятность Ж системы, состоящей из N невзаимодействующих между собой частей, равна произведению вероятностей этих частей:
N
ж = жг • ж2 •... ^ = ПЖ (6)
- = 1
Выражения (5) и (6) показывают, что энтропия Больцмана является аддитивной величиной или, иначе говоря, общая энтропия Е системы равна
сумме энтропий ее изолированных друг от друга частей:
N N N
Е = к 1п Ж = к 1п ПЖ = к £ 1п Ж- = £ Ег (7)
г=1 г=1 г=1
Рассмотрим теперь с помощью энтропии Больцмана переход некоторой системы разнородных идеальных газов из структурно-упорядоченного состояния в состояние термодинамического равновесия.
Возьмем какую-либо емкость объемом V и разделим ее непроницаемыми перегородками произвольным образом на N частей с объемами VI, V2,..., VN. При одинаковых температуре и давлении заполним каждую часть объема V одним из идеальных газов В1, В2,..., BN и изолируем емкость от влияния внешней среды. Сохраним при этом прежние обозначения и будем считать, что количество молекул газа в каждой части равно МВ1, Мв2 ,..., Мвм , соответственно. Образованная таким образом систе-
N
ма идеальных газов А = В1 + В2 + ... + BN включает в себя Ма = £Мв.
г=1
молекул и находится в структурно-упорядоченном состоянии, наглядный пример которого (для N=3) приведен на рисунке 1а.
а б
@® © @©@ @® © @® ©
© © © ©
© О © © о
0 © О © ®
О © © ® ©
t = ?0 t = t0 + Дt
Рисунок 1. Переход системы идеальных газов из структурно-упорядоченного состояния (а) в состояние термодинамического равновесия (б)
Это состояние системы в наших рассуждениях наблюдается в момент времени to, а его общая энтропия Е0 равна сумме энтропий частей системы. Так как каждый из частных объемов Vl, Р2,..., VN равномерно заполнен соответствующим идеальным газом, то термодинамическая вероятность каждой части системы А определяется числом возможных перестановок составляющих ее молекул
Жвг = МВ.!
и, соответственно:
N N
Е0 = к £1п Жв> = к £1п Мвг! (8)
г = 1 г = 1
После убирания перегородок каждый из газов, вследствие теплового движения молекул, перемешивается с другими газами и в момент времени tR = to + А t статистически равномерно распределяется по всему объему V, что приводит систему А в состояние термодинамического равновесия, соответствующего молекулярному хаосу (см. рисунок 1б).
Термодинамическая вероятность Ж при этом, на протяжении времени А t неуклонно возрастает и в момент tR достигает своего максимально возможного значения WR = Ма !. Энтропия ER термодинамически равновесного состояния системы А соответственно равна:
ER = к 1п МА! (9)
Разность энтропий системы в термодинамическом равновесии и в структурно-упорядоченном состоянии, в свою очередь, представляет собой энтропию смешения газов А Е , которая согласно (8) и (9) имеет вид:
А Е = ER - Е0 = к 1п -М— (10)
П МВ-!
- = 1
Из выражений (8) - (10) следует, что общая схема самопроизвольного процесса перехода изолированной системы идеальных газов из структурно-упорядоченного состояния в состояние термодинамического равновесия, может быть выражена через уравнение баланса энтропии Больцмана:
Е0 + А Е = ER (11)
Освободимся в формулах (8) - (10) от факториалов, для чего воспользуемся формулой Стирлинга
1пп! »п(1пп -1) (12)
и, пренебрегая единицей при п ® ¥, будем применять её в огрубленном виде:
1пп! » п 1пп (13)
Основанием для такого огрубления служит тот факт, что относительная погрешность замены формулы (12) на (13), в соответствии с числом
19 3
Лошмидта N1 = 2,687 10 1/ см , выражающим количество молекул идеального газа в 1см3 при нормальных условиях, составляет: для
33
1см - 2,3%, для 1 м -1,7% и т.д. В то же самое время многие из реально существующих природных систем имеют несравненно большие размеры, что делает указанное огрубление оправданным.2
Делая соответствующие замены факториалов в формулах (8) - (10), получаем:
N
Е0 » к£МВ. 1пЫВ. (14)
1 =1
ЕК » кМА 1пМА (15)
N
АЕ » к(МА 1пМА - XМв. 1пМв.) (16)
1=1
Умножим и разделим правую часть выражения (14) на Ма и, учитывая, что в соответствии со свойствами логарифмов 1п а = ^2 а ■ 1п2, приведем выражения (14) - (16) к виду:
Nмв.
Е0 » кМА 1п2 ■ХМг- 1о§2 Мв, (17)
1 = 1 А
Ех » кМА 1п2 ■ ^2 Ма (18)
2 Например, запасы месторождений природного газа иногда исчисляются триллионами кубометров.
АЕ » кМА 1п2■ (1og2МА-ХМГ^2МВ1 )
1 =1 А
NMB
(19)
При этом отметим, что произведение кМ а 1п2, присутствующее в каждом из выражений (17) - (19), сохраняет свое постоянное значение при любых преобразованиях системы А. Поэтому, в дальнейшем будем обозначать его как постоянный коэффициент с, то есть с = кМ а 1п 2 .
Проводя теперь сравнение информационно-синергетических функций (2) - (4) с выражениями (17) - (19), не трудно видеть, что крайние правые сомножители последних равны аддитивной негэнтропии /х, энтропии отражения £ и отражаемой информации /а , соответственно. Отсюда следует, что каждая из этих функций имеет определенную, присущую только ей, взаимосвязь с энтропией Больцмана:
Подставляя значения информационно-синергетических функций /а , /х, £ из выражений (20) - (22) в информационное соотношение (1), получаем для последнего его асимптотический термодинамический эквивалент:
То есть, информационное соотношение (1), дополнительно к отмеченным во введении интерпретациям, в термодинамическом отношении характеризует процесс перехода системы идеальных газов из структурноупорядоченного состояния в состояние термодинамического равновесия. Данный факт позволяет говорить о том, что синергетическая теория ин-
(20)
с
(21)
с
(22)
с
Ма ^ (/а = /х+ £) ~ (ЕК = Е0 +АЕ)
(23)
формации имеет непосредственную взаимосвязь со статистической термодинамикой и, по-видимому, может быть включена в арсенал ее средств познания.
Информационная энтропия и энтропия Больцмана: коллизия мнений
В работе [1] было показано, что синергетическая и традиционная теории информации непосредственно взаимосвязаны друг с другом и в своей совокупности образуют единую количественную теорию информации. Поэтому, установив взаимосвязь синергетической теории информации со статистической термодинамикой в лице выражений (20) - (23), целесообразно также осветить существующие взгляды на взаимоотношения энтропии Больцмана с информационно-энтропийными мерами Хартли [2] и Шеннона [3], которые при использовании двоичных логарифмов, математически тождественны отражаемой информации /а (2) и энтропии отражения £ (4), соответственно. При этом сразу отметим, что вопрос взаимосвязи энтропии Больцмана с традиционными информационноэнтропийными мерами длительный период времени является предметом дискуссии.
Приверженцы этой взаимосвязи [4,5] считают, что энтропия Больцмана и информационная энтропия эквивалентны друг другу. При этом в качестве аргумента приводится тот факт, что в формулах Хартли и Шеннона, формально похожих на формулу Больцмана, присутствует коэффициент пропорциональности К, зависящий от выбора единиц измерения информации. Поэтому, беря в качестве К постоянную Больцмана к, можно осуществлять переход от информационной энтропии к энтропии термодинамической. Более того, например, по мнению Бриллюэна [4], при рассмотрении физических систем информацию и термодинамическую энтропию лучше выражать одними и теми же единицами.
Противники наличия такой взаимосвязи между энтропией Больцмана и информационно-энтропийными функциями [6,7], в свою очередь, утверждают, что это разные величины и задают вопрос: «Разве достаточно формального сходства двух выражений, чтобы одну величину измерять в единицах другой и на этом основании устанавливать между ними непосредственную взаимосвязь?» [6, с.72 ]. И, указывают на то, что «в литературе вначале отмечалось отличие этих двух величин, обозначаемых одним словом, но позже многие авторы последовали за Бриллюэном, отождествившим термодинамическую и информационную энтропии» [7, с. 50].
Кроме этих полярных точек зрения, существует и ряд промежуточных, более осторожных мнений. Так, например Эшби, один из основоположников кибернетики, не отрицая определенной связи между энтропией Шеннона и термодинамической энтропией, указывает, что «выводы в этих вопросах требуют большой осторожности, ибо самое незначительное изменение условий или допущений может превратить высказывание из строго истинного в абсурдно ложное» [8, с. 254]. Интересным представляется также мнение Шамбадаля, который в своей работе сначала, вслед за Брил-люэном, берет в качестве коэффициента пропорциональности К постоянную Больцмана к, а затем говорит о том, что «тождественность величин / и £ (информации и энтропии Больцмана - прим. В. В.) происходит не столько от самой природы вещей, сколько от нашего произвола» [9, с. 191].
Принимая участие в этой заочной дискуссии, с позиций полученных в предыдущем разделе результатов, можно сказать следующее. Так как информационно-энтропийные меры Хартли и Шеннона выражаются такими же формулами, что и отражаемая информация /А и энтропия отражения £, то на основании выражений (21) и (22) можно утверждать, что они действительно имеют взаимосвязь с энтропией Больцмана, но эта взаимосвязь отрицает их эквивалентность и тождественность. Причем каждая из этих информационных энтропий имеет свой физический аспект интерпре-
тации: энтропия Хартли связана с термодинамически равновесным состоянием системы идеальных газов, а энтропия Шеннона, - с энтропией смешения газов и, соответственно, увеличивается по мере приближения системы к состоянию термодинамического равновесия.
Заключение
В статье, на основе рассмотрения процесса перехода изолированной системы разнородных идеальных газов, из структурно-упорядоченного состояния в состояние термодинамического равновесия, установлено, что информационно-синергетические функции в лице отражаемой информации, аддитивной негэнтропии и энтропии отражения, имеют непосредственную взаимосвязь с термодинамической энтропией Больцмана. При этом показано, что совокупность данных функций в виде соответствующего соотношения, представляет собой асимптотический эквивалент уравнения баланса энтропии Больцмана. Это свидетельствует о взаимосвязи синергетической теории информации со статистической термодинамикой и, по всей видимости, позволяет говорить о том, что синергетическая теория информации по своей сущности является физической теорией.
Литература
1. Вяткин В.Б. Синергетическая теория информации. Часть 2. Отражение дискретных
систем в плоскости признаков их описания // Научный журнал КубГ АУ [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №45(1). Режим доступа:
http://ej.kubagro.ru/2009/01/pdf/12.pdf
2. Хартли Р.В.Л. Передача информации. // Сб.: Теория информации и ее приложения.
- М.: Физматгиз, 1959. - С. 5-35.
3. Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - 830с.
4. Бриллюэн Л. Научная неопределенность и информация. - М.: Мир, 1966. - 272 с.
5. Волькенштейн М.В. Энтропия и информация. - М.: Наука, 1986. - 192с.
6. Оксак А.И. Гносеологический анализ соотношения энтропии и информации // Фи-
лософские науки. - 1972, №5 - С. 68-76.
7. Базаров И.П. Заблуждения и ошибки в термодинамике. - М.: МГУ, 1993. - 56с.
8. Эшби У.Р. Введение в кибернетику. - М.: Изд. иностр. лит., 1959. - 432с.
9. Шамбадаль П. Развитие и приложение понятия энтропии. - М.: Наука, 1967. - 280с.