Научная статья на тему 'Синергетическая теория информации часть 3. Информационные функции и энтропия Больцмана'

Синергетическая теория информации часть 3. Информационные функции и энтропия Больцмана Текст научной статьи по специальности «Математика»

CC BY
340
103
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЭНТРОПИЯ БОЛЬЦМАНА / ИНФОРМАЦИОННО-СИНЕРГЕТИЧЕСКИЕ ФУНКЦИИ / ТЕРМОДИНАМИЧЕСКАЯ ВЕРОЯТНОСТЬ / ИДЕАЛЬНЫЙ ГАЗ / BOLTZMANN ENTROPY / INFORMATION-SYNERGISTIC FUNCTIONS / THERMODYNAMIC PROBABILITY / IDEAL GAS

Аннотация научной статьи по математике, автор научной работы — Вяткин Виктор Борисович

В статье показывается, что информационно-синергетические функции, в лице отражаемой информации, аддитивной негэнтропии и энтропии отражения, имеют непосредственную взаимосвязь с энтропией Больцмана.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Вяткин Виктор Борисович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SYNERGETIC INFORMATION THEORY Part 3. Information functions and Boltzmann entropy

In the article it is shown that information-synergistic functions, in the face reflected information, additive negentropy and entropy of reflection, they have direct interrelation with Boltzmann entropy.

Текст научной работы на тему «Синергетическая теория информации часть 3. Информационные функции и энтропия Больцмана»

УДК 519.722 + 536.751 UDC 519.722 + 536.751

СИНЕРГЕТИЧЕСКАЯ ТЕОРИЯ SYNERGETIC INFORMATION THE-

ИНФОРМАЦИИ Часть 3. Информаци- ORY Part 3. Information functions and онные функции и энтропия Больцмана Boltzmann entropy

Вяткин Виктор Борисович, к.т.н. Vyatkin Victor Borisovich. Dr.Sc.(Tech.)

Екатеринбург, Россия Ekaterinburg, Russia

В статье показывается, что информацион- In the article it is shown that information-но-синергетические функции, в лице отра- synergistic functions, in the face reflected жаемой информации, аддитивной негэн- information, additive negentropy and en-тропии и энтропии отражения, имеют не- tropy of reflection, they have direct interrela-посредственную взаимосвязь с энтропией tion with Boltzmann entropy.

Больцмана.

Ключевые слова: ЭНТРОПИЯ Keywords: BOLTZMANN ENTROPY,

БОЛЬЦМАНА, ИНФОРМАЦИОННО- INFORMATION-SYNERGISTIC СИНЕРГЕТИЧЕСКИЕ ФУНКЦИИ, FUNCTIONS, THERMODYNAMIC

ТЕРМОДИНАМИЧЕСКАЯ PROBABILITY, IDEAL GAS

ВЕРОЯТНОСТЬ, ИДЕАЛЬНЫЙ ГАЗ

«Развитие теории информации, и в частности связь этой теории с термодинамикой, происходило в недавнее время, поэтому в будущем вполне могут появиться новые непредугаданные результаты»

П. Шамбадаль.

Введение

Ранее [1] было установлено, что информация Ia , отражаемая произвольной системой А через совокупность своих частей B1, B2,..., Bn , раз-

деляется на отраженную и неотраженную части, равные аддитивной негэн-тропии Is и энтропии отражения S, соответственно. То есть:

Ia = h + S (1)

При этом:

IA = l°g2 MA (2)

IS = ^-------В- log2 M b.

Ma '

nmB

(3)

(4)

где: Ма - общее количество элементов в составе системы А; Мв - количество элементов в составе В; части.

Выражение (1) занимает в синергетической теории информации ключевое положение и, в зависимости от того, с каких позиций рассматривается, имеет несколько качественно различных интерпретаций. - Так, в отношении собственно отражения системы, как единого целого, выражение (1) интерпретируется как информационный закон отражения. Если рассматривается структура системы со стороны ее упорядоченности и хаотичности, то соотношение (1) выражает закон сохранения суммы хаоса и порядка. С позиций соотношения и взаимных переходов друг в друга различных видов информации (связанной с управлением и существующей независимо от него), данное выражение представляет собой закон сохранения информации на межвидовом информационном уровне. И, наконец, с позиций различных подходов к определению понятия «количество информации», выражение (1) показывает неразрывную взаимосвязь комбинаторного, вероятностного и синергетического подходов.1

В настоящей статье показывается, что дополнительно к указанным интерпретациям, информационное соотношение (1), с термодинамических позиций, характеризует переход изолированной системы идеальных газов из структурно-упорядоченного состояния в состояние термодинамического равновесия, а каждая из информационно-синергетических функций (2) -(4) при определенных условиях имеет непосредственную взаимосвязь с энтропией Больцмана.

1 Подробное описание приведенных интерпретаций выражения (1) дано в работе [1].

Взаимосвязь информационно-синергетических функций и термодинамической энтропии Больцмана

Макроскопическое состояние той или иной термодинамической системы, состоящей из конечного множества элементов (атомов, молекул), традиционно характеризуется с помощью энтропии Больцмана (Е), статистически выражающей второе начало термодинамики и имеющей вид:

Е = к 1п Ж, (5)

— 23

где: к = 1,38 • 10 дж/ град - постоянная Больцмана, а Ж - термодинами-

ческая вероятность, представляющая собой число возможных микросостояний системы, посредством которых может быть реализовано данное макросостояние.

При этом напомним, что термодинамическая вероятность Ж является однозначной функцией макросостояния системы, достигает своего максимального значения, когда система приходит в состояние термодинамического равновесия и обладает свойством мультипликативности. То есть вероятность Ж системы, состоящей из N невзаимодействующих между собой частей, равна произведению вероятностей этих частей:

N

ж = жг • ж2 •... ^ = ПЖ (6)

- = 1

Выражения (5) и (6) показывают, что энтропия Больцмана является аддитивной величиной или, иначе говоря, общая энтропия Е системы равна

сумме энтропий ее изолированных друг от друга частей:

N N N

Е = к 1п Ж = к 1п ПЖ = к £ 1п Ж- = £ Ег (7)

г=1 г=1 г=1

Рассмотрим теперь с помощью энтропии Больцмана переход некоторой системы разнородных идеальных газов из структурно-упорядоченного состояния в состояние термодинамического равновесия.

Возьмем какую-либо емкость объемом V и разделим ее непроницаемыми перегородками произвольным образом на N частей с объемами VI, V2,..., VN. При одинаковых температуре и давлении заполним каждую часть объема V одним из идеальных газов В1, В2,..., BN и изолируем емкость от влияния внешней среды. Сохраним при этом прежние обозначения и будем считать, что количество молекул газа в каждой части равно МВ1, Мв2 ,..., Мвм , соответственно. Образованная таким образом систе-

N

ма идеальных газов А = В1 + В2 + ... + BN включает в себя Ма = £Мв.

г=1

молекул и находится в структурно-упорядоченном состоянии, наглядный пример которого (для N=3) приведен на рисунке 1а.

а б

@® © @©@ @® © @® ©

© © © ©

© О © © о

0 © О © ®

О © © ® ©

t = ?0 t = t0 + Дt

Рисунок 1. Переход системы идеальных газов из структурно-упорядоченного состояния (а) в состояние термодинамического равновесия (б)

Это состояние системы в наших рассуждениях наблюдается в момент времени to, а его общая энтропия Е0 равна сумме энтропий частей системы. Так как каждый из частных объемов Vl, Р2,..., VN равномерно заполнен соответствующим идеальным газом, то термодинамическая вероятность каждой части системы А определяется числом возможных перестановок составляющих ее молекул

Жвг = МВ.!

и, соответственно:

N N

Е0 = к £1п Жв> = к £1п Мвг! (8)

г = 1 г = 1

После убирания перегородок каждый из газов, вследствие теплового движения молекул, перемешивается с другими газами и в момент времени tR = to + А t статистически равномерно распределяется по всему объему V, что приводит систему А в состояние термодинамического равновесия, соответствующего молекулярному хаосу (см. рисунок 1б).

Термодинамическая вероятность Ж при этом, на протяжении времени А t неуклонно возрастает и в момент tR достигает своего максимально возможного значения WR = Ма !. Энтропия ER термодинамически равновесного состояния системы А соответственно равна:

ER = к 1п МА! (9)

Разность энтропий системы в термодинамическом равновесии и в структурно-упорядоченном состоянии, в свою очередь, представляет собой энтропию смешения газов А Е , которая согласно (8) и (9) имеет вид:

А Е = ER - Е0 = к 1п -М— (10)

П МВ-!

- = 1

Из выражений (8) - (10) следует, что общая схема самопроизвольного процесса перехода изолированной системы идеальных газов из структурно-упорядоченного состояния в состояние термодинамического равновесия, может быть выражена через уравнение баланса энтропии Больцмана:

Е0 + А Е = ER (11)

Освободимся в формулах (8) - (10) от факториалов, для чего воспользуемся формулой Стирлинга

1пп! »п(1пп -1) (12)

и, пренебрегая единицей при п ® ¥, будем применять её в огрубленном виде:

1пп! » п 1пп (13)

Основанием для такого огрубления служит тот факт, что относительная погрешность замены формулы (12) на (13), в соответствии с числом

19 3

Лошмидта N1 = 2,687 10 1/ см , выражающим количество молекул идеального газа в 1см3 при нормальных условиях, составляет: для

33

1см - 2,3%, для 1 м -1,7% и т.д. В то же самое время многие из реально существующих природных систем имеют несравненно большие размеры, что делает указанное огрубление оправданным.2

Делая соответствующие замены факториалов в формулах (8) - (10), получаем:

N

Е0 » к£МВ. 1пЫВ. (14)

1 =1

ЕК » кМА 1пМА (15)

N

АЕ » к(МА 1пМА - XМв. 1пМв.) (16)

1=1

Умножим и разделим правую часть выражения (14) на Ма и, учитывая, что в соответствии со свойствами логарифмов 1п а = ^2 а ■ 1п2, приведем выражения (14) - (16) к виду:

Nмв.

Е0 » кМА 1п2 ■ХМг- 1о§2 Мв, (17)

1 = 1 А

Ех » кМА 1п2 ■ ^2 Ма (18)

2 Например, запасы месторождений природного газа иногда исчисляются триллионами кубометров.

АЕ » кМА 1п2■ (1og2МА-ХМГ^2МВ1 )

1 =1 А

NMB

(19)

При этом отметим, что произведение кМ а 1п2, присутствующее в каждом из выражений (17) - (19), сохраняет свое постоянное значение при любых преобразованиях системы А. Поэтому, в дальнейшем будем обозначать его как постоянный коэффициент с, то есть с = кМ а 1п 2 .

Проводя теперь сравнение информационно-синергетических функций (2) - (4) с выражениями (17) - (19), не трудно видеть, что крайние правые сомножители последних равны аддитивной негэнтропии /х, энтропии отражения £ и отражаемой информации /а , соответственно. Отсюда следует, что каждая из этих функций имеет определенную, присущую только ей, взаимосвязь с энтропией Больцмана:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Подставляя значения информационно-синергетических функций /а , /х, £ из выражений (20) - (22) в информационное соотношение (1), получаем для последнего его асимптотический термодинамический эквивалент:

То есть, информационное соотношение (1), дополнительно к отмеченным во введении интерпретациям, в термодинамическом отношении характеризует процесс перехода системы идеальных газов из структурноупорядоченного состояния в состояние термодинамического равновесия. Данный факт позволяет говорить о том, что синергетическая теория ин-

(20)

с

(21)

с

(22)

с

Ма ^ (/а = /х+ £) ~ (ЕК = Е0 +АЕ)

(23)

формации имеет непосредственную взаимосвязь со статистической термодинамикой и, по-видимому, может быть включена в арсенал ее средств познания.

Информационная энтропия и энтропия Больцмана: коллизия мнений

В работе [1] было показано, что синергетическая и традиционная теории информации непосредственно взаимосвязаны друг с другом и в своей совокупности образуют единую количественную теорию информации. Поэтому, установив взаимосвязь синергетической теории информации со статистической термодинамикой в лице выражений (20) - (23), целесообразно также осветить существующие взгляды на взаимоотношения энтропии Больцмана с информационно-энтропийными мерами Хартли [2] и Шеннона [3], которые при использовании двоичных логарифмов, математически тождественны отражаемой информации /а (2) и энтропии отражения £ (4), соответственно. При этом сразу отметим, что вопрос взаимосвязи энтропии Больцмана с традиционными информационноэнтропийными мерами длительный период времени является предметом дискуссии.

Приверженцы этой взаимосвязи [4,5] считают, что энтропия Больцмана и информационная энтропия эквивалентны друг другу. При этом в качестве аргумента приводится тот факт, что в формулах Хартли и Шеннона, формально похожих на формулу Больцмана, присутствует коэффициент пропорциональности К, зависящий от выбора единиц измерения информации. Поэтому, беря в качестве К постоянную Больцмана к, можно осуществлять переход от информационной энтропии к энтропии термодинамической. Более того, например, по мнению Бриллюэна [4], при рассмотрении физических систем информацию и термодинамическую энтропию лучше выражать одними и теми же единицами.

Противники наличия такой взаимосвязи между энтропией Больцмана и информационно-энтропийными функциями [6,7], в свою очередь, утверждают, что это разные величины и задают вопрос: «Разве достаточно формального сходства двух выражений, чтобы одну величину измерять в единицах другой и на этом основании устанавливать между ними непосредственную взаимосвязь?» [6, с.72 ]. И, указывают на то, что «в литературе вначале отмечалось отличие этих двух величин, обозначаемых одним словом, но позже многие авторы последовали за Бриллюэном, отождествившим термодинамическую и информационную энтропии» [7, с. 50].

Кроме этих полярных точек зрения, существует и ряд промежуточных, более осторожных мнений. Так, например Эшби, один из основоположников кибернетики, не отрицая определенной связи между энтропией Шеннона и термодинамической энтропией, указывает, что «выводы в этих вопросах требуют большой осторожности, ибо самое незначительное изменение условий или допущений может превратить высказывание из строго истинного в абсурдно ложное» [8, с. 254]. Интересным представляется также мнение Шамбадаля, который в своей работе сначала, вслед за Брил-люэном, берет в качестве коэффициента пропорциональности К постоянную Больцмана к, а затем говорит о том, что «тождественность величин / и £ (информации и энтропии Больцмана - прим. В. В.) происходит не столько от самой природы вещей, сколько от нашего произвола» [9, с. 191].

Принимая участие в этой заочной дискуссии, с позиций полученных в предыдущем разделе результатов, можно сказать следующее. Так как информационно-энтропийные меры Хартли и Шеннона выражаются такими же формулами, что и отражаемая информация /А и энтропия отражения £, то на основании выражений (21) и (22) можно утверждать, что они действительно имеют взаимосвязь с энтропией Больцмана, но эта взаимосвязь отрицает их эквивалентность и тождественность. Причем каждая из этих информационных энтропий имеет свой физический аспект интерпре-

тации: энтропия Хартли связана с термодинамически равновесным состоянием системы идеальных газов, а энтропия Шеннона, - с энтропией смешения газов и, соответственно, увеличивается по мере приближения системы к состоянию термодинамического равновесия.

Заключение

В статье, на основе рассмотрения процесса перехода изолированной системы разнородных идеальных газов, из структурно-упорядоченного состояния в состояние термодинамического равновесия, установлено, что информационно-синергетические функции в лице отражаемой информации, аддитивной негэнтропии и энтропии отражения, имеют непосредственную взаимосвязь с термодинамической энтропией Больцмана. При этом показано, что совокупность данных функций в виде соответствующего соотношения, представляет собой асимптотический эквивалент уравнения баланса энтропии Больцмана. Это свидетельствует о взаимосвязи синергетической теории информации со статистической термодинамикой и, по всей видимости, позволяет говорить о том, что синергетическая теория информации по своей сущности является физической теорией.

Литература

1. Вяткин В.Б. Синергетическая теория информации. Часть 2. Отражение дискретных

систем в плоскости признаков их описания // Научный журнал КубГ АУ [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №45(1). Режим доступа:

http://ej.kubagro.ru/2009/01/pdf/12.pdf

2. Хартли Р.В.Л. Передача информации. // Сб.: Теория информации и ее приложения.

- М.: Физматгиз, 1959. - С. 5-35.

3. Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - 830с.

4. Бриллюэн Л. Научная неопределенность и информация. - М.: Мир, 1966. - 272 с.

5. Волькенштейн М.В. Энтропия и информация. - М.: Наука, 1986. - 192с.

6. Оксак А.И. Гносеологический анализ соотношения энтропии и информации // Фи-

лософские науки. - 1972, №5 - С. 68-76.

7. Базаров И.П. Заблуждения и ошибки в термодинамике. - М.: МГУ, 1993. - 56с.

8. Эшби У.Р. Введение в кибернетику. - М.: Изд. иностр. лит., 1959. - 432с.

9. Шамбадаль П. Развитие и приложение понятия энтропии. - М.: Наука, 1967. - 280с.

i Надоели баннеры? Вы всегда можете отключить рекламу.