Научная статья на тему 'Становление и развитие теории информации'

Становление и развитие теории информации Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
4197
810
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ТЕОРИЯ ИНФОРМАЦИИ / ЭНТРОПИЯ И НЕГЭНТРОПИЯ / ЦЕННОСТЬ ИНФОРМАЦИИ

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Ушакова Алёна Владимировна

Статья посвящена проблематике теории информации. Рассматриваются три подхода к анализу информации: синтаксический подход, основной целью которого является установить количественную меру информации, семантический подход, который формулирует понятие информации в качестве соотношения языковой системы с материальными объектами и отображаемыми ею явлениями, и прагматический подход, который содержит вопросы цели, ценности, полезности информации. Знания, полученные с помощью указанных подходов, дают возможность понять природу количественной и качественной сторон информации.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

FORMATION AND DEVELOPMENT OF THE THEORY OF INFORMATION

The article is about information theory. Three of her levels are treated in details: syntactic (an approach whose main purpose is to establish a quantitative measure of information), semantic (an approach that formulates the concept of information as a ratio of the language system with material objects and phenomena displayed by it) and pragmatic (an approach that includes the questions of goals, values, useful information). The know ledge gained by using the above concepts, provide an opportunity to understand the nature of quantitative and qualitative information of the parties.

Текст научной работы на тему «Становление и развитие теории информации»

2015

НАУЧНЫЙ ВЕСТНИК МГТУ ГА

№ 215

УДК 519.722

СТАНОВЛЕНИЕ И РАЗВИТИЕ ТЕОРИИ ИНФОРМАЦИИ

А.В. УШАКОВА

Статья посвящена проблематике теории информации. Рассматриваются три подхода к анализу информации: синтаксический подход, основной целью которого является установить количественную меру информации, семантический подход, который формулирует понятие информации в качестве соотношения языковой системы с материальными объектами и отображаемыми ею явлениями, и прагматический подход, который содержит вопросы цели, ценности, полезности информации. Знания, полученные с помощью указанных подходов, дают возможность понять природу количественной и качественной сторон информации.

Ключевые слова: теория информации, энтропия и негэнтропия, ценность информации.

Наиболее популярной в решении вопроса о возникновении теории информации является точка зрения, согласно которой основоположниками этой новой области знания являются Клод Шеннон и Норберт Винер. Однако нужно уточнить тот факт, что исследования этих ученых имеют абсолютно разные цели и являются теоретическими установками двух различных областей теории информации. Работы Винера [1] дали начало кибернетике как науке о саморегулирующихся системах, информация в которых обуславливала процессы управления. Независимо друг от друга в 1936 г. Эмиль Леон Пост и Алан Тьюринг разработали теорию «абстрактно-вычислительной машины». Труд Клода Шеннона «Математическая теория связи» [8] является суммированием представлений об информации в физике, а именно - термодинамике того периода (1948 г.). Тем не менее сам Шеннон был категорически против распространения данного подхода на иные научные течения, подчеркивая специфичность задач связи, а также сложности и ограничения этой теории. Но, невзирая на это, информационно-теоретические наработки широко распространились и повлияли и на развитие самой теории информации, и на ее разнообразные приложения. Так, практически в одно время зарождаются два независимых подхода к теории информации. Джон фон Нейман полагал, что кибернетический и вероятностно-статистический подходы являются необходимыми для информационного описания двух разных процессов - динамического и статистического. В итоге сложилась подлинная общенаучная фи-лософско-информационная парадигма, а на основе наработок в этом направлении формируется структурно-синтаксический подход к такому феномену, как информация, основной целью которого являлось установить количественную меру информации.

Одним из первых, кто начал изучать проблематику информации относительно ее количественного аспекта, был Ральф Хартли [7]. Математическая формула количества информации, которую он ввел в 1928 г. и обобщил К. Шеннон, тождественна формуле Людвига Больцмана для физической энтропии систем. Причина данной аналогии неслучайна, так как она указывает на глубинные связи в структуре мироздания. В 1929 г., благодаря понятию энтропии, Л. Сцил-лардом была обнаружена связь между информацией и термодинамической системой. По-видимому, на определенной стадии развития науки появилась потребность в общеуниверсальной мере гетерогенности систем, с помощью которой можно было бы сопоставлять их многообразие и сложность. Далее эта мера была использована в различных отраслях науки: в кибернетике, в биологии, в термодинамике и разнообразных областях теоретической информации.

Специфическим этапом в ходе развития информационной теории стали труды Л. Бриллю-эна. «Негэнтропийный принцип информации» помогает выявить присутствие связи между величиной негэнтропии, которая служит мерой упорядоченности, разнообразия, структурности, и величиной информации, которая выступает как мера выбора получателем одной из заблаговременно обусловленных и определенным способом интерпретируемых в каждом специальном

случае вероятностей. Так, по Бриллюэну, информация - это функция взаимоотношения количества возможных ответов до и после того, как было получено сообщение.

Немного иначе высказал тот же принцип Уильям Росс Эшби: «информация есть то, что устраняет неопределенность» и измеряется «количеством неопределенности, которую она устраняет» [10, с. 254]. Немаловажным этапом в формировании представления об информации считается связь между информацией и разнообразием. Данная связь проявляется в следующей зависимости: ограничение разнообразия соразмерно снижению количества информации. Но, с другой точки зрения, разнообразие также может выступать как способность уменьшения неопределенности до минимума. Отсюда следует, что взаимосвязь информации с разнообразием носит двойственный характер, то есть информация связана как с увеличением разнообразия, так и с ограничением, уничтожением его в другом отношении.

Существенную роль в разработке теории информации сыграли математические исследования, в процессе которых были аргументированы невероятностные подходы к вопросу информации, такие как топологический, комбинаторный и динамический. Огромный вклад в этом направлении сделали и русские ученые (например, труды А.Н. Колмогорова, в которых описана вероятность определять информацию в рамках алгоритмического подхода).

Распространение основ информационной теории на процесс общественной коммуникации увеличило интерес исследователей к гносеологическим аспектам информации. Благодаря работам Д. Маккея выработалось отдельное направление, сформировавшее основой своего исследования гносеологический смысл информации. Согласно Маккею, общая теория информации обязана заниматься вопросами измерения модификаций в знании. Таким образом, применив к информации критерий истинности, он заложил основу для выявления семантического и прагматического уровней. Информация считается истинной, если некое изменение, модификация, повышает степень соответствия между представлениями об объекте изучения и самим объектом и, наоборот, информация является ложной, если вследствие изменения степень соответствия понижается.

Маккей первым внедрил популярное и противоречивое на сегодняшний день понятие «информационного пространства», под которым понимается запас знаний получателя. Новое представление, возникающее у получателя в результате эксперимента и несущее в себе новое, дополнительное знание, Маккей обозначил понятием «структурной информации». Структурная информация проявляется в наборе логически суверенных предложений, обрисовывающих разнообразные свойства объекта. Уровень подтверждения тривиальными физическими событиями логических элементов структурной информации отражается в понятии и «метрической информации». Помимо этого, Маккей также заостряет внимание и на «селективной информации» (аналоге шенноновского определения количества информации), которая определяет выбор получателем элементов структурной информации в том случае, когда они уже существуют в предшествующем опыте получателя.

Таким образом, на данной ступени постижения информации выработались отправные моменты для дальнейших направлений исследования. Отдельно следует отметить, что произошло установление связи информации с категориями неопределенности, разнообразия, негэнтропии, определение специфической связи информации со знанием.

Характерной чертой количественных теорий информации является отвлечение ее от содержательного и смыслового аспектов информации [7]. Тем не менее значительная интеграция с гуманитарными областями привела исследователей к надобности обоснования качественного аспекта информации. Подвергая анализу поэтапную эволюцию теории информации, представленную в вышеперечисленных концепциях, нельзя не отметить, что акцент в заинтересованности исследователей по мере углубления в освоение феномена информации понемногу отстраняется от вопросов передачи самого знака на проблематику сохранения его смысла, значения. Сам Н. Винер, один из основоположников кибернетики и теории информации, писал, что информация обязана пониматься не только как обмен сообщениями между человеком и машиной (ма-

шиной и машиной), но и как «обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств» [1, с. 30-31]. Исходя из этого, следует, что постижение информации предполагает выход на следующий уровень, выявляющий новые грани этого глубокого феномена. Этим следующим этапом в освоении информации стал выход на уровень семантических исследований.

Впервые логико-семантическая теория информации была разработана У. Бар -Хиллелом и Р. Карнапом. Опираясь на концепции Маккея и Бриллюэна, эти ученые уточняют формулировку понятия информации в области соотношения языковой системы с материальными объектами и отображаемыми ею явлениями. В соответствии с их воззрениями, информация выступает как характеристика определенного знания в его отношении касательно обозначаемого им объекта и выраженного содержания, сообщаемого предложением некой языковой системы. Содержание семантической информации в этом случае можно определить структурой возможных состояний предмета рассуждений, которые выражаются понятием «описание состояния», то есть смысловыми отношениями, выражаемыми материальным носителем информации.

Базируясь на вышеприведенных концепциях, К.Е. Войшвилло [2] разработал любопытное толкование связи энтропии и информации в семантическом аспекте. Объединяя информацию не непосредственно с опытом, а с некоторыми суждениями, можно интерпретировать энтропию как степень трудности ответа на вопрос, то есть меру недостаточности информации для решения данной проблемы. Из этого следует, что процесс решения вопроса происходит здесь по мере накопления информации, а это, в свою очередь, ведет к повышению вероятности решения поставленного вопроса. Тем не менее мера информации все же зависима от фактора неожиданности.

Иной подход к формализации семантического аспекта предложил Ю.А. Шрейдер [9]. В его модели информацией обладают как гипотезы, так и любые сведения, изменяющие запас знаний (тезаурус) приемника информации. В общем случае семантический аспект выражается отношением между получаемой приемником информацией и объектом, играющим роль передатчика информации. В теории семантической информации Ю.А. Шрейдера ярко отражена идея разнообразия, когда количественно семантическая информация определяется через уровень изменения тезауруса, то есть через изменение разнообразия запаса знаний субъекта (в кибернетике -«опыт» системы).

Главная директива логической семантики заключается в утверждении, что язык науки в своих символах и предложениях показывает потенциальное реальное состояние предмета рассуждения, состояние реальной действительности. Но относительно феномена информации это приводит к тому, что в данном контексте ее количество может оказаться равным как какому-либо бессмысленному набору звуков, знаков или слов, так и научному высказыванию; но, наиболее информационно важными признаются неверные, ложные суждения (так как из лжи может следовать все что угодно). Так, решение проблем смыслового несоответствия суждений фактам реальности, роли субъекта в информационном процессе стало необходимостью, и это обусловило переход теории информации на следующий уровень исследования - прагматический.

Прагматический аспект информации содержит вопросы цели, ценности, полезности информации. Прагматическая теория информации стремится выполнить количественный анализ этих параметров. Здесь информация анализируется как основа для выбора некоторой последовательности действий в определенной ситуации и связана с эффективностью этой последовательности относительно к установленным целям. Ее количество обусловливается уровнем определенности того или иного выбора в пределах между абсолютной неопределенностью и полной определенностью. На данной стадии интерес исследователей переключается с общих вопросов постижения собственно природы информации и информационных процессов на проблематику процесса коммуникации, то есть осознанного обмена информацией.

Впервые изучением прагматического аспекта занялись У. Майлс и Р. Акоф, которые разработали бихевиористскую теорию коммуникации (теорию обмена информацией). Фундаментальным понятием этой теории являлось «индивидуальное целеустремленное состояние», иными словами это такое состояние, при котором индивидуум стремится к чему-либо, то есть имеет существенный при данном обстоятельстве исход своего поведения, а, кроме того, существует и альтернативный путь с различной эффективностью для достижения цели. Исходя из этого, под информацией, изменяющей вероятность выбора (последовательности действий), Майлсом понимается вид коммуникации. Количество информации и ценность сообщения определяется разностью количеств в целеустремленном состоянии до и после того, как были получены сообщения.

И.А. Полетаев [5] занимался вопросами энтропии и негэнтропии на прагматическом уровне. Возвращаясь к этой проблематике, он построил модель системы, которая обобщала реально существующие естественные и искусственные системы. Главной особенностью его системы являлось присутствие в ней процессов управления и информации. Помимо этого, система была открытой, то есть производила непрерывный энергообмен с внешней средой и была способна реагировать на сигналы, полученные извне. Причем реакция системы на эти сигналы была специфически разнообразной, так как определялась структурной составляющей системы и была приурочена к различным отдельным внешним воздействиям. «Явление информации в этом случае состоит в том, что некоторые события на входе системы влекут за собой некоторые другие события внутри системы и на ее выходе, которые связаны с первыми в цепочке процессов кодирования и потому условно, в коде системы, соответствуют им» [4, с. 214]. Таким образом, в системной модели Полетаева еще одним из определяющих свойств является ее способность самостоятельно заменять свои элементы на основании восприятия, которое реализует информацию «по смыслу».

Специфика восприятия системы задает такие прагматические свойства информации, как цель и ценность. Критерием ценности информации является величина накопленной в системе негэнтропии и скорость ее накопления. Модификация структуры системы, приводящая к росту негэнтропии, называется «адаптивной» [4, с. 235-236]. Цель здесь рассматривается как адаптивная реакция или класс адаптивных изменений. Возникновение образа цели делает поведение системы целеустремленным, обращенным на решение поставленных задач, образующих иерархию критериев, среди которых высшим выступает накопление негэнтропии.

По М.М. Бонгарду мерой полезной информации считается изменение неопределенности поставленных задач в результате получения сообщения. Нет смысла говорить о полезности информации, которая содержится в сигнале, если не указаны: решаемая задача, первоначальное состояние решающего алгоритма и свойство декодирующего алгоритма. Это высказывание доказывает невозможность установить ценность информации, если она не связана с понятием цели.

В концепции А.А. Харкевича [6] проблематика ценности информации постигается через приращение вероятности достижения цели, где цель определяется будущим результатом деятельности. Измерение ценности информации с помощью ее количества связано с тем, что в теории Шеннона под информацией понимается снятая неопределенность, то есть считается, что поступающая информация всегда является ценной. Согласно Шеннону, любой возможный ответ на заданный вопрос содержит равное количество информации, так как в равной степени снижает неопределенность. Отсюда следует, что различные сообщения обладают разной ценностью, а устанавливается эта ценность в соответствии с имеющимися в данный момент целями системы.

Итак, теория информации в общем виде представляется в трех основных концептуальных подходах: синтаксическом, семантическом и прагматическом. Первый подход связан с количественной характеристикой информации, а два последних рассматриваются относительно каче-

ственного аспекта. Количествeнная и качествeнная (содержательная) грани информации близки между собой так, что одна задает направление поиска для другой [3].

ЛИТЕРАТУРА

1. Винер Н. Кибернетика, или управление и связь в животном и машине. М.: Прогресс, 1968. 420 с.

2. Войшвилло К.Е. Попытка семантической интерпретации статистических понятий информации и энтропии. М.: Мысль, 1966. 214 с.

3. Земан И. Познание и информация. М.: Знание, 1966. 34 с.

4. Полетаев И.А. К определению понятия информации. Исследования по кибернетике. М.: Наука, 1970. 180 с.

5. Харкевич А.А. О ценности информации // Проблемы кибернетики. 1960. Вып. 4.

6. Хартли Р. Передача информации - теория информации и ее приложения. М.: Прогресс, 1959. 312 с.

7. Шеннон К. Математическая теория связи. Работы по теории информации и кибернетике. М., 1963.

8. Шрейдер Ю.А. Тезаурусы в информатике и логической семантике // Научно-техническая информация. Сер. 2. 1971. № 3. 98 с.

9. Эшби У.Р. Введение в кибернетику. М.: Прогресс, 1959. 320 с.

FORMATION AND DEVELOPMENT OF THE THEORY OF INFORMATION

Ushakova A.V.

The article is about information theory. Three of her levels are treated in details: syntactic (an approach whose main purpose is to establish a quantitative measure of information), semantic (an approach that formulates the concept of information as a ratio of the language system with material objects and phenomena displayed by it) and pragmatic (an approach that includes the questions of goals, values, useful information). The know ledge gained by using the above concepts, provide an opportunity to understand the nature of quantitative and qualitative information of the parties.

Keywords: information theory, entropy and negentropy, the value of information.

REFERENCES

1. Viner N. Kibernetika, ili upravlenie i svyaz' v zhivotnom i mashine. M.: Progress. 1968. 420 p. (In Russian).

2. Vojshvillo K.E. Popytka semanticheskoj interpretatsii statisticheskikh ponyatij informatsii i ehntropii. M.: Mysl'. 1966. 214 p. (In Russian).

3. Zeman I. Poznanie i informatsiya. M.: Znanie. 1966. 34 p. (In Russian).

4. Poletaev ЬА. K opredeleniyu ponyatiya informatsii. Issledovaniya po kibernetike. M.: Nauka. 1970. 180 p. (In Russian).

5. Kharkevich А.А. O cennosti informacii. Problemy kibernetiki. 1960. Т. 4. (In Russian).

6. Khartli R. Peredacha informatsii - teoriya informatsii i eeprilozheniya. M.: Progress. 1959. 312 p. (In Russian).

7. Shennon K. Matematicheskaya teoriya svyazi. Rabotypo teorii informatsii i kibernetike. M. 1963. (In Russian).

8. Shrejder YuA. Tezaurusy v informatike i logicheskoj semantike. Nauchno-tekhnicheskaya informatsiya. 1971. Т. 2. № 3. 98 p. (In Russian).

9. Ehshbi U.R. Vvedenie v kibernetiku. M.: Progress. 1959. 320 p. (In Russian).

Сведения об авторе

Ушакова Алёна Владимировна, окончила МГТУ ГА (2014), аспирантка МГТУ ГА, автор 2 научных работ, область научных интересов — история и философия науки и техники, философия информации.

i Надоели баннеры? Вы всегда можете отключить рекламу.