Научная статья на тему 'Информация как общенаучное и философское понятие: основные подходы к определению'

Информация как общенаучное и философское понятие: основные подходы к определению Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
11119
1347
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНФОРМАЦИЯ / СУБСТАНЦИОНАЛЬНЫЙ ПОДХОД К ИНФОРМАЦИИ / АТРИБУТИВНЫЙ ПОДХОД К ИНФОРМАЦИИ / ФУНКЦИОНАЛЬНАЯ КОНЦЕПЦИЯ ИНФОРМАЦИИ / ВЕРОЯТНОСТНО-СТАТИСТИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ / СЕМАНТИЧЕСКАЯ КОНЦЕПЦИЯ ИНФОРМАЦИИ / СИНЕРГЕТИЧЕСКАЯ КОНЦЕПЦИЯ ИНФОРМАЦИИ / INFORMATION / SUBSTANTIAL APPROACH TO INFORMATION / ATTRIBUTIVE APPROACH TO INFORMATION / FUNCTIONAL CONCEPT OF INFORMATION / PROBABILISTIC- STATISTICAL THEORY ОF INFORMATION SEMANTIC CONCEPT OF INFORMATION / SYNERGETIC CONCEPT OF INFORMATION

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Лысак И. В.

Одной из актуальных задач современной философии информатики, попытка решения которой предпринята в настоящей статье, является классификация и систематизация основных подходов к определению такого многозначного феномена, как информация. Предлагается разграничить обыденное понимание информации, а также философские и общенаучные подходы к ее исследованию. В работе отмечается, что с философских позиций информация рассматривалась преимущественно в советской философии. В качестве основных философских концепций информации выделяются субстанциональная, атрибутивная и функциональная, распространенные и в настоящее время. Первой из научных теорий информации стала математическая, или вероятностно-статистическая, концепция, уделяющая особое внимание количественным аспектам информации и отождествляющая термины «информация» и «количество информации». С 1950-х годов исследовательский интерес смещается к изучению качественных и ценностных аспектов информации, что находит выражение в формировании семантической и витальной теорий информации. В 1980-90-е годы начинают складываться синергетические концепции информации, синтезирующие количественные и качественные подходы. В настоящее время категория «информация» активно разрабатывается представителями естественных, технических и социально-гуманитарных наук, что требует ее философского переосмысления и выявления ее сущностных свойств.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

One of the main goals of the contemporary philosophy of information science and the focus for this article is the classification and systematization of basic approaches on how to define such a richly detailed concept as «information». It is proposed to draw a line between the commonplace understanding of information on the one hand side and the philosophical and general academic approaches to its study on the other. As noted in the article, information was considered from a philosophical standpoint most predominantly in Soviet philosophy. The basic philosophical concepts of information as substantial, attributive, and functional were distinguished and continue to hold meaning today. Mathematics (as a probability/statistical concept) became the basis of the first scientific theories of information that attached special meaning to the quantitative aspects of information and identified the concepts of both information and «the amount of information». Since 1950, research interest has shifted to the study of information’s qualitative and axiological aspects, which are expressed in the formation of the semantic and vital theory of information. In the 1980-90s, synergetic concepts of information that synthesized the quantitative and qualitative approaches began to emerge. Currently, information as a category is being actively developed by researchers from the natural, technical, and social sciences, along with those from the humanities, which in turn calls for its philosophical reconceptualization and for the identification of its essential properties.

Текст научной работы на тему «Информация как общенаучное и философское понятие: основные подходы к определению»

Философия информации и проблема искусственного интеллекта

УДК 007: 519.72: 621.391

DOI: 10.17726/philIT.2015.10.2.391

ИНФОРМАЦИЯ КАК ОБЩЕНАУЧНОЕ И ФИЛОСОФСКОЕ ПОНЯТИЕ:

ОСНОВНЫЕ ПОДХОДЫ К ОПРЕДЕЛЕНИЮ

Лысак Ирина Витальевна,

профессор кафедры философии, доктор философских наук, профессор,

ФГАОУ ВО «Южный федеральный университет», Ростов-на-Дону, Россия

ivlysak@sfedu.ru

Аннотация. Одной из актуальных задач современной философии информатики, попытка решения которой предпринята в настоящей статье, является классификация и систематизация основных подходов к определению такого многозначного феномена, как информация. Предлагается разграничить обыденное понимание информации, а также философские и общенаучные подходы к ее исследованию. В работе отмечается, что с философских позиций информация рассматривалась преимущественно в советской философии. В качестве основных философских концепций информации выделяются субстанциональная, атрибутивная и функциональная, распространенные и в настоящее время. Первой из научных теорий информации стала математическая, или вероятностно-статистическая, концепция, уделяющая особое внимание количественным аспектам информации и отождествляющая термины «информация» и «количество информации». С 1950-х годов исследовательский интерес смещается к изучению качественных и ценностных аспектов информации, что находит выражение в формировании семантической и витальной теорий информации. В 1980-90-е годы начинают складываться синергетические концепции информации, синтезирующие количественные и качественные подходы. В настоящее время категория «информация» активно разрабатывается представителями естественных, технических и социально-гуманитарных наук, что требует ее философского переосмысления и выявления ее сущностных свойств.

Ключевые слова: информация; субстанциональный подход к информации; атрибутивный подход к информации; функциональная концепция информации; вероятностно-статистическая теория информации; семантическая концепция информации; синергетическая концепция информации.

10

Философские проблемы информационных технологий и киберпространства Философия информации и проблема искусственного интеллекта

INFORMATION AS A GENERAL SCIENTIFIC AND PHILOSOPHICAL CONCEPT BASIC APPROACHES TO ITS DEFINITION

Lysak Irina V.,

professor of the Department of Philosophy, doctor of philosophical sciences, professor,

Southern Federal University, Rostov-on-Don, Russia ivlysak@sfedu.ru

Abstract. One of the main goals of the contemporary philosophy of information science and the focus for this article is the classification and systematization of basic approaches on how to define such a richly detailed concept as «information». It is proposed to draw a line between the commonplace understanding of information on the one hand side and the philosophical and general academic approaches to its study on the other. As noted in the article, information was considered from a philosophical standpoint most predominantly in Soviet philosophy. The basic philosophical concepts of information as substantial, attributive, and functional were distinguished and continue to hold meaning today. Mathematics (as a probability/statistical concept) became the basis of the first scientific theories of information that attached special meaning to the quantitative aspects of information and identified the concepts of both information and «the amount of information». Since 1950, research interest has shifted to the study of information’s qualitative and axiological aspects, which are expressed in the formation of the semantic and vital theory of information. In the 1980-90s, synergetic concepts of information that synthesized the quantitative and qualitative approaches began to emerge. Currently, information as a category is being actively developed by researchers from the natural, technical, and social sciences, along with those from the humanities, which in turn calls for its philosophical reconceptualization and for the identification of its essential properties.

Keywords: information; substantial approach to information; attributive approach to information; functional concept of information; probabilistic-statistical theory of information semantic concept of information; synergetic concept of information.

№ 2 (10), декабрь 2015 URL: http://cyberspace.pglu.ru

11

Введение

Термин «информация» относится, с одной стороны, к часто употребляемым, с другой - к одним из самых многозначных и трудноопределимых терминов. Слово «информация» интуитивно понятно каждому, однако подавляющее большинство людей испытывают серьезные затруднения в том случае, если им предлагается пояснить, что они понимают под информацией. Причем это затруднение испытывают как те, кто мало разбираются в современных информационных технологиях, так и специалисты, профессионально работающие с информацией. Количество определений информации в научных исследованиях исчисляется сотнями. Этот термин считают «своим» информатики и юристы, физики и математики, генетики и радиотехники, лингвисты и медики, однако обилие семантических конструкций не упрощает, а лишь усложняет его понимание. В настоящее время отмечается лавинообразный рост научных публикаций, затрагивающих проблематику сущности информации. Однако многие из них представляют собой компиляцию различных, порой противоречащих друг другу подходов к ее определению. Представляется, что разобраться в огромном массиве существующих определений информации, подробный обзор которых приводится, в частности, в работах И.В. Мелик-Гайказян [1; 2: 86-92], возможно лишь четко разграничив обыденные, общенаучные и философские трактовки исследуемого понятия.

Цель работы состоит в систематизации, классификации и критическом анализе базовых подходов к определению понятия «информация» в философии, информатике, семиотике, биологии, синергетике, а также в выявлении базовых свойств информации.

Материалы и методы исследования

Исследование строилось на основе компаративного метода, логико-диалектического анализа, принципа объективности и всесторонности рассмотрения проблемы. Теоретический базис исследования составили: концепция информации К. Шеннона, заложившего основы статистического подхода к ее изучению, семантический подход к определению информации Ю.А. Шрейдера, витальная концепция информации В.И. Корогодина, рассматривавшего ее как свойство всего живого, а также синергетическая теория информации Д.С. Чернавского и И.В. Мелик-Гайказян.

12

Философские проблемы информационных технологий и киберпространства Философия информации и проблема искусственного интеллекта

Критическому осмыслению подверглись философские подходы к информации, сложившиеся в советской философии и получившие развитие в работах современных российских философов, к каковым относятся субстанциональный, атрибутивный и функциональный.

Результаты исследования и их обсуждение

Анализ понятия информация требует четкого разграничения обыденных, философских и общенаучных подходов к его рассмотрению.

Обыденное понимание информации нашло отражение в словарях русского языка. Само слово «информация» восходит к латинскому «informatio» и означает буквально «разъяснение, изложение, сообщение, осведомление о чем-либо». В русский язык это слово пришло во времена Петра I, будучи заимствованным из польского, однако в речевой практике оно практически не использовалось вплоть до XX в. В качестве синонимов к слову «информация» в словаре синонимов называются «сведения», «данные», «материал» [3: 164, 444]. В «Словаре русского языка» С.И. Ожегова информация определяется как «сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством» [4: 248]. В «Большом толковом словаре русского языка» С.А. Кузнецова под информацией понимается «сообщение о положении дел где-либо, о каких-либо событиях» или «сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами» [5: 397].

Информация как философская категория стала объектом пристального изучения в советской философии. Многие из подходов к информации, сформировавшиеся в 60-70-е гг. XX в., не утратили своей актуальности и в настоящее время активно используются в научных публикациях. С философских позиций все существующие подходы к информации можно разделить на субстанциональные, атрибутивные и функциональные.

Согласно субстанциональным подходам информация есть субстанция (лат. substantia - сущность; то, что лежит в основе), т.е. самостоятельная сущность. Сторонники данного подхода исходят из представления об информации основоположника кибернетики, американского математика и философа Н. Винера, счи-

№ 2 (10), декабрь 2015 URL: http://cyberspace.pglu.ru

13

тавшего, что помимо материи и энергии в мире существует нечто «третье» - информация. Все представители субстанционального подхода цитируют известную фразу Н. Винера: «Информация -это не материя и не энергия» [6]. Следует отметить, что в работах самого Н. Винера эта мысль не получила дальнейшего развития, однако она дала толчок к осмыслению информации как фундаментальной философской категории. Основатель системного подхода Л. Берталанфи понимал информацию как физическую величину, которая сравнима по значению с понятием энергии в физике [7: 31]. Американский ученый Т. Стониер подчеркивал самостоятельный статус информации, ее независимость от субъекта и приписываемых ей ценностно-смысловых нагрузок. Он писал: «Информация существует. Чтобы существовать, она не нуждается в том, чтобы ее воспринимали. Чтобы существовать, она не нуждается в том, чтобы ее понимали. Она не требует умственных усилий для своей интерпретации. Чтобы существовать, ей не требуется иметь смысл. Она существует» [8: 21]. Субстанционального подхода придерживаются и российские исследователи РФ. Абде-ев [9], В.А. Гадасин [10], Б.Б. Кадомцев [11] и др. Так, В.А. Гадасин отмечет, что информация не может быть сведена ни к материи, ни к идее: «Собственно информация нематериальна, подобно другим невещественным явлениям - слову, идее, мысли, праву, чувству. Воспроизведение информации должно быть предъявлено в виде материального изделия: явления - тело, вещество, предмет; или события - энергия, движение, процесс» [10: 191]. В.А. Гадасин пишет о существовании трех равнозначных субстанций: материи, информации и сознания. Автор предлагает определять информацию следующим образом: «Информация есть порядок (изоморфизм) - маркированное детерминированным способом конечное множество физически измеримых параметров изделия-носителя: предмета, зафиксированного в пространстве, или процесса, зафиксированного во времени» [10: 191].

В соответствии с атрибутивным подходом информация есть всеобщее свойство материи, ее атрибут, т.е. существенное, неотъемлемое свойство. Этого подхода придерживались преимущественно советские ученые, исходящие при его разработке из ленинской теории отражения. Сторонники этого подхода (И.Б. Новик, А.Д. Урсул и др.) полагают, что информация присуща всем физическим процессам и системам.

Философские проблемы информационных технологий и киберпространства

14 -------------------------------------------------------------------

Философия информации и проблема искусственного интеллекта

Одним из первых на взаимосвязь информации и отражения указал в 1959 г. советский философ И.Б. Новик, пытавшийся определить информацию в терминах диалектического материализма [12: 165-181]. Будучи приверженцем кибернетики, И.Б. Новик пытался рассматривать ее идеи с позиции просвещенного марксизма, считал, что «информация представляет собой качественную и количественную характеристику организованности, упорядоченности отражения» [13: 22]. Он утверждал, что количество информации есть мера порядка отражения материи, призывал к созданию «физики отражения» и, основываясь на законе сохранения энергии, предложил закон сохранения информации [14: 58]. Один из основателей теоретического и системного программирования в СССР, академик А.П. Ершов писал, что информация во второй половине ХХ в. стала фундаментальной философской категорией, которую «рассматривают как один из важнейших атрибутов материи, отражающий ее структуру. Понимание единой природы информации вслед за установлением единой природы вещества и энергии стало важным шагом к осознанию материального единства мира» [15: 113].

Сторонники атрибутивного подхода связывают или даже отождествляют информацию с разнообразием, различием или неоднородностью. Так, известный философ А.Д. Урсул раскрывает сущность информации исходя из категорий различия и отражения [16]. Он обосновывает мысль, что информация есть только там, где существует различие, и отсутствует там, где его нет. С позиций теории отражения информация «может быть представлена как отраженное разнообразие, а именно разнообразие, которое один объект содержит о другом объекте» [17: 177]. По мнению А.Д. Урсула, информация «присуща как материальному, так и идеальному. Она применима и к характеристике материи, и к характеристике сознания. Если объективная (и потенциальная для субъекта) информация может считаться свойством материи, то идеальная, субъективная информация есть отражение объективной, материальной информации» [17: 229]. Академик В.М. Глушков определял информацию как «меру неоднородности распределения материи и энергии в пространстве и времени, меру изменений, которыми сопровождаются все протекающие в мире процессы» [18].

Итак, с позиций атрибутивного подхода информация существует не только в сознании человека, но и независимо от него, в

№ 2 (10), декабрь 2015 URL: http://cyberspace.pglu.ru

15

живой и неживой природе. Сторонники функциональной концепции информации (П.В. Копнин, Д.И. Дубровский, БС. Украинцев и др.), напротив, полагают, что информация есть свойство лишь самоорганизующихся систем, связанное с их функционированием. Так, П.В. Копнин утверждает, что информация «не является атрибутом материи, она принадлежит не всем ее формам и видам... Информация ... касается отдельных сторон, моментов, видов отражения. Если рефлекс связан с мозгом, то информация - со сложнодинамической системой управления, способной приспосабливаться к изменению условий. <.> Информация в отличие от отражения вообще возникает на определенном уровне организации материи» [19: 116]. Развивая эти идеи, Б.С. Украинцев отстаивает идею о том, что информация возникает лишь в высокоорганизованной материи и связана с процессом управления. Он писал, что «без процессов управления ... не может быть информации» [20: 36]. По мнению сторонников функционального подхода, информация обладает тремя параметрами: синтаксическим, семантическим и прагматическим. Семантические и прагматические компоненты не присущи физическим объектам самим по себе, они связаны с процессами управления и возникают только в управляемых или самоорганизующихся системах.

Информация как общенаучная категория

Первой из научных теорий информации стала математическая, или вероятностно-статистическая. Основы математической теории информации был заложены американским ученым Р. Хартли, а затем получили развитие в трудах К. Шеннона.

В 1928 г. Р. Хартли ввел в научный оборот понятие информации, содержащейся в сообщении [21]. Он рассматривал информацию как математическую переменную и предложил логарифмическую меру информации, названную хартлиевским количеством информации. Следует отметить, что в математической теории информации между понятиями «информация» и «количество информации» не усматривалось принципиальной разницы. Идеи Р. Хартли были развиты американским исследователем К. Шенноном в работе «Математическая теория связи» [22] и «Связь при наличии шума» [23]. Понятие «информация» К. Шеннон использовал для решения практических задач, с которыми сталкиваются инженеры-связисты. К ним относятся оптимизация кодирования сообщений, повышение помехоустойчивости, распознавание сигналов на

16

Философские проблемы информационных технологий и киберпространства Философия информации и проблема искусственного интеллекта

фоне шумов, расчет пропускной способности каналов связи и т.п. Разрабатывая свою теорию информации, К. Шеннон стремился перейти от нечеткого представления об информации как передаче сведений к точному понятию количества информации. Понятие количества информации определялось им на основе понятия вероятности, которое применяется для описания ситуации с неопределенностью. Информация, по К. Шеннону, - это мера, снимающая неопределенность в приемнике информации. Таким образом, статистическая теория информации оперирует понятием энтропии как меры неопределенности, учитывающей вероятность появления, а следовательно и информативность тех или иных сообщений.

Математическая теория информации К. Шеннона позволяла определять количество информации, передаваемой по каналам связи, абстрагируясь от ее семантики, смысла. Для уяснения специфики такого понимания информации А.Д. Иванников, А.Н. Тихонов и В.Я. Цветков приводят три фразы: 1) «казнить нельзя, помиловать»; 2) «казнить, нельзя помиловать»; 3) «нить, ватьнепомльзя казило». Из этих трех фраз первая и вторая противоположны по смыслу, третья бессмысленна, но с позиции теории информации К. Шеннона они несут одинаковое количество информации, имеют равное количество бит [24]. Таким образом, теория информации К. Шеннона полностью игнорирует содержание информации. Вопрос о ее ценности в этой теории вообще не ставится. Как пишет И.В. Мелик-Гайказян, «рассчитывая пропускную способность канала связи, бессмысленно принимать во внимание содержание телеграмм» [2: 96].

Подход к пониманию информации как снятой неопределенности, аналогичной энтропии физической системы, привел к появлению термина «негэнтропия». Уже сам факт наличия у слова энтропия отрицательной приставки нег- (от лат. negativus - отрицательный) свидетельствует о том, что за понятием негэнтропия стоит нечто противоположное энтропии и отрицающее ее, некая отрицательная энтропия.

Понятие «отрицательная энтропия» ввел в научный оборот известный физик Э. Шредингер. В 1943 г. в работе «Что такое жизнь?» [25] он развивает идею Н. Бора о глубокой связи законов физики и философских законов, согласно которой принцип дополнительности может стать основой синтеза накопленного человечеством знания и способствовать осознанию единства мира.

№ 2 (10), декабрь 2015 URL: http://cyberspace.pglu.ru

17

Э. Шредингер показал, что любая живая система экспортирует энтропию, чтобы поддерживать собственную энтропию на низком уровне. Иными словами, живая система импортирует отрицательную энтропию для самосохранения, т.е. отрицательная энтропия способствует упорядочиванию и самосохранению системы. В 1956 г. американский физик Л. Бриллюэн в работе «Научная неопределенность и информация» сократил термин «отрицательная энтропия» до слова негэнтропия и ввел его в таком виде в теорию информации [26: 25]. Он обосновал утверждение, что процесс получения информации в физических опытах сопровождается уменьшением негэнтропии, и сделал вывод, что «негэнтропия эквивалентна информации» [26: 31]. Сравнивая информацию и энтропию, Л. Бриллюэн ввел в теорию информации негэнтро-пийный принцип, согласно которому «информация представляет собой отрицательный вклад в энтропию» [26: 34]. С этого времени термин «негэнтропия» стал употребляться в двух основных значениях: для обозначения количества информации, равного разности между начальной (до получения сообщения) и конечной (после получения сообщения) энтропий, и для характеристики величины, обратной энтропии, выражающей упорядоченность материальных объектов [27].

Итак, первые из детально разработанных в науке концепций информации носили вероятностно-статистический характер и уделяли внимание количественным параметрам информации. Однако уже в 1950-е гг. исследователи начинают осознавать актуальность изучения качественных и ценностных аспектов информации. Проблемы ценности и смысла информации заняли центральное место в семиотике (от греч. sema - знак), которая в начале 1950-х гг. выделилась из общей лингвистики. Семиотика как наука о знаковых системах исследует знаки как особый вид носителей информации и анализирует возможности естественных и искусственных языков как знаковых систем. На основе семиотики возникла семантическая теория информации, сторонники которой обратили внимание на то, что важнейшим свойством информации является ее неотделимость от носителей, каковыми и являются знаки, слова, языки. Таким образом, рассматривать количество, содержание и ценность информации следует исходя из анализа знаковых систем. Поскольку содержание информации неразрывно связано с формой ее представления, из-

18

Философские проблемы информационных технологий и киберпространства Философия информации и проблема искусственного интеллекта

мерять его возможно также через форму, т.е. семантические свойства информации можно выразить через синтаксические, изучая закономерности сочетания знаков в сообщении. Первыми семантическую теорию информации попытались построить Р. Карнап и И. Бар-Хиллел, применив идеи и методы символической логики и логической семантики к анализу информационного содержания языка науки. Они предложили определять величину семантической информации на основе логической вероятности.

Семантический подход к определению информации разрабатывался российским исследователем Ю.А. Шрейдером. Он полагал, что при анализе процесса передачи информации от источника к приемнику особое внимание следует уделять именно свойствам приемника, воспринимающего и накапливающего информацию, а не свойствам канала передачи. По мнению Ю.А. Шрейдера, семантическую информацию, воспринимаемую системой, можно оценивать по степени изменения содержащейся в системе собственной смысловой информации за счет накопления информации внешней [28]. Чтобы воспринимать информацию, система должна иметь некую начальную, пороговую информацию, которую Ю.А. Шрейдер обозначил термином «тезаурус». Если пороговая информация позволяет, система будет расширять свой тезаурус, получая извне новую информацию, т.е. тезаурус необходим для восприятия информации, ее понимания. По мнению Ю.А. Шрейдера, «...одно и то же сообщение может по-разному восприниматься различными приемниками информации», причем от состояния тезауруса зависит, какие из поступающих сведений будут восприняты, а какие - нет [29: 118].

Таким образом, в отличие от К. Шеннона и его последователей, уделяющих основное внимание самому процессу передачи информации, пропускной способности канала связи, представители семантической теории информации в первую очередь обращают внимание на процессы восприятия информации, на свойства приемника, полагая, что именно от него зависит передача смысла сообщения.

Во второй половине ХХ в. проблема информации вызывает исследовательский интерес не только специалистов в области связи, математиков, кибернетиков, но и биологов, анализирующих генетическую информацию. Именно в биологии вопрос о ценности информации приобретает особое значение, а, по мнению био-

№ 2 (10), декабрь 2015

---------------------------- 19

URL: http://cyberspace.pglu.ru

физика А.С. Пресмана, такое качество информации, как ценность, возникает только в живых системах [30: 93]. Действительно, для биологических систем важно не количество, а качество информации. Естественный отбор - один из базовых факторов эволюции - основан на повышении ценности генетической информации. Причем ценностью обладает информация, способствующая самовоспроизведению живых организмов.

Информацию как необходимый компонент живых систем рассматривал российский биолог В.И. Корогодин, заложивший основы витальной теории информации (от лат. vita - жизнь). Анализируя информацию в биологических системах, он выделил три ее типа: генетическую, которая содержится в наборе генов, контролирующих синтез соединений, обеспечивающих удвоение молекул ДНК; поведенческую, которая лежит в основе врожденных поведенческих реакций, генетически запрограммированных в нервной системе; логическую, присущую только человеку, связанную с возникновением вербальных и визуальных языков и обеспечивающую преемственность и развитие культур [31].

В качестве основных свойств информации В.И. Корогодин называл фиксируемость и действенность. Он показал, что информация может существовать, только фиксируясь на материальном носителе. Действенность информации, по В.И. Корогодину, заключается в том, что она позволяет совершать целенаправленные действия. Для этого информация воплощается в так называемые «операторы» - технологии достижения цели - алгоритмы, программы, инструкции [31]. Примерами операторов в генетической информации, по мнению В.И. Корогодина, могут быть соматические элементы, в поведенческой - условные и безусловные рефлексы, в логической - социальные институты.

Концепция информации В.И. Корогодина вызвала серьезные научные споры и одновременно привела к возникновению новых научных концепций, в частности синергетической, которая будет изложена ниже.

Синергетическая теория информации базируется на идеях Г. Хакена о связи самоорганизации и информации, И.Р. При-гожина о необратимости времени и конструктивности хаоса, Е.Н. Князевой и С.П. Курдюмова о роли структур-аттракторов, притягивающих из будущего тенденции развития настоящего. В информатике и теории информации идеи синергетики разви-

20

Философские проблемы информационных технологий и киберпространства Философия информации и проблема искусственного интеллекта

вают российские исследователи Д.С. Чернавский и И.В. Мелик-Гайказян. Синергетические концепции информации уделяют особое внимание ее роли в технических и биологических системах, изучают количественные и качественные аспекты информации, анализируют взаимосвязь энтропии и информации, рассматривают проблему ценности информации. Информация в синергетике понимается как случайный и запомненный выбор одного варианта из нескольких возможных и равноправных.

Синергетическая концепция информации, разработанная известным биофизиком Д.С. Чернавским, получила также название динамической. Он изучал информационные процессы в живой природе, исследовал механизмы хранения и использования генетической информации. В 1975 г. Д.С. Чернавский предложил модель возникновения ценной биологической информации на примере единого биологического кода.

Синергетические идеи о конструктивности хаоса позволили Д.С. Чернавскому по-новому трактовать определение информации, предложенное американским биохимиком Г Кастлером, согласно которому «информация есть случайный и запомненный выбор варианта из многих возможных и равноправных» [32]. Иными словами, информация проявляется в виде случайного события, результат которого системе удается запомнить. При этом способность системы генерировать случайные события (флуктуации) и запоминать их следствия, а также связанная с этим способность к самовоспроизведению зависят от сложности системы. Чем проще система, тем выше ее склонность к вырождению, чем она сложнее, тем выше вероятность ее динамической стабильности и саморазвития. Анализируя определение Г. Кастлера, Д. Чернавский выделил два ключевых слова, характеризующих выбор: «случайный» и «запомненный». Слово «случайный» в этом определении относится к способу выбора, другими словами - характеризует сам процесс выбора. Д.С. Чернавский справедливо отмечает, что выбор может быть и не случайным, его могут подсказать, навязать, потому он считает, что это слово следует исключить из определения. Слово «запомненный» относится к фиксации информации. Следует учесть, что выбор может и не запоминаться, т.е. сразу же забываться. Подобный незапоминаемый выбор предлагается называть микроинформацией. Примером микроинформации может служить выбор определенного набора координат и

№ 2 (10), декабрь 2015 URL: http://cyberspace.pglu.ru

21

скоростей молекул идеального газа. Такой выбор в силу неустойчивости движения молекул мгновенно «забывается». За доли пикосекунды невозможно ни обработать информацию, ни сделать прогноз на ее основе. Именно микроинформация связана с физической энтропией.

Запомненный выбор одного варианта из нескольких возможных Д.С. Чернавский предлагает называть макроинформацией. Запоминание означает, что сделанный выбор сохраняется в течение времени, которое больше, чем время использования данной информации. Макроинформация с физической энтропией не связана. Более того, изменение макроинформации всегда сопровождается увеличением физической энтропии, которое существенно больше изменения макроинформации [33: 169]. При анализе всех реальных информационных процессов речь идет именно о макроинформации.

Усовершенствованное Д.С. Чернавским приведенное выше определение информации Г. Кастлера звучит следующим образом: «Информация есть запомненный выбор одного варианта из нескольких возможных и равноправных» [34: 13]. Это определение, с одной стороны, не противоречит базовым трактовкам информации в естествознании и позволяет применять математический аппарат для вычисления количественных параметров информации, с другой стороны, оно позволяет обратить внимание на процесс возникновения информации и ее ценность. Причем ценность информации зависит от цели, которую преследует воспринимающая ее система. Д.С. Чернавским были разработаны методы количественного определения ценности информации. Если цель достижима несколькими путями, ценность информации определяется по уменьшению материальных или временных затрат, благодаря ее использованию. Если достижение цели не обязательно, но вероятно, то для измерения ценности необходим анализ вероятности достижения цели до получения информации и после ее получения. Д.С. Чернавский доказывает, что ценность информации субъективна. Ценность одного и того же количества информации в одном случае может быть высокой, а в другом -равной нулю. Причем, по его мнению, актуальной является задача выяснения того, как информация эволюционирует: неценная информация становится ценной, бессмысленная - осмысленной, и наоборот [34: 19].

22

Философские проблемы информационных технологий и киберпространства Философия информации и проблема искусственного интеллекта

Развивая идеи Д.С. Чернавского и В.И. Корогодина, И.В. Мелик-Гайказян предлагает рассматривать информацию как процесс [2: 91]. Информационный процесс, по И.В. Мелик-Гайказян, включает стадии генерации и кодирования информации. На стадии генерации система осуществляет случайный выбор одного из многих возможных вариантов. Этот выбор запоминаем, т.е. он фиксируется на материальном носителе. Стадия кодирования заключается в подготовке сигнала к дальнейшей передаче, которая соответствует формату канала трансляции. И.В. Мелик-Гайказян выступает против отождествления информации и негэнтро-пии [2: 123]. Обосновывая эту идею, она отмечает, что генерация новой информации происходит в самоорганизующейся системе в моменты бифуркаций (позднелат. bifurcatio - раздвоение, разветвление, от лат. bis - дважды, furca - вилы), т.е. в моменты хаотического состояния системы, которое преодолевается благодаря выбору одного из сценариев дальнейшего развития. Можно сказать, что информация генерируется как выход из хаоса [35: 9-33].

Синергетика позволяет по-новому взглянуть на процесс рецепции (от лат. receptio - прием, принятие) информации. Как отмечает И.В. Мелик-Гайказян, неправомерно заменять термин «рецепция» термином «восприятие», это допустимо лишь при анализе систем органического мира. Она трактует рецепцию информации как необратимый, неравновесный процесс, а рецепторную систему рассматривает как диссипативную систему, способную самопроизвольно повышать степень своей упорядоченности. На этапе рецепции «созданная информация воспринимается неравновесной средой, способной создавать асимметричные структуры, отбираемые с помощью соответствующих правил (законы сохранения, термодинамики), естественного отбора, поведенческих реакций, видов перцепций» [36: 105]. И.В. Мелик-Гайказян предлагает определять информацию следующим образом: «Феномен информации есть многостадийный, необратимый процесс становления структуры в открытой неравновесной системе, начинающийся со случайного запоминаемого выбора, который эта система делает, переходя от хаоса к порядку, и завершающийся целенаправленным действием согласно алгоритму или программе, отвечающим семантике выбора» [2: 121]. В качестве основных этапов информационного процесса И.В. Мелик-Гайказян выделяет следующие: генерация информации - выбор одного из возмож-

№ 2 (10), декабрь 2015 URL: http://cyberspace.pglu.ru

23

ных путей дальнейшего развития; фиксация информации, ее объективация; кодирование информации; трансляция информации, включающая процесс передачи информации с одних носителей на другие, декодирование и рецепцию информации; создание оператора для совершения целенаправленных действий; редупликация (воспроизведение) информации [36: 105-109].

Заключение

Таким образом, до начала ХХ в. господствовало обыденное понимание информации, в науке этот термин практически не применялся. В 40-60-е гг. ХХ в. получают распространение научные и философские трактовки этого понятия. Причем статус философ -ского термина «информация» ранее всего получает в советской философии, представители которой рассматривают информацию с позиций теории отражения. В 1940-60-е гг. преобладали математические, вероятностно-статистические, количественные подходы к информации, что обусловлено их формированием в рамках технических наук. Позднее наряду с количественными развиваются качественные, семантические, витальные подходы к информации, на первый план выходит понятие ценности информации. Этому способствует внимание к информационным процессам со стороны представителей естественных наук - физиков и биологов. В 1980-90-е гг. складываются синергетические концепции информации, синтезирующие количественные и качественные подходы. Начало XXI в. характеризуется переосмыслением природы информации, попытками объединить статистические и семантические принципы ее исследования.

Литература:

1. Мелик-Гайказян И.В. Информационные процессы и реальность. М.: Физматлит, 1997. - 192 с. (Melik-Gajkazyan I.V Information processes and Reality. M.: Fizmatlit, 1997. - 192 р.)

2. Мелик-Гайказян И.В., Мелик-Гайказян М.В., Тарасенко В.Ф. Методология моделирования нелинейной динамики сложных систем. М.: Физматлит, 2001. - 272 с. (Melik-Gajkazyan I.V., Melik-Gajkazyan M.V., Tarasenko V.F. The methodology of modeling the nonlinear dynamics of complex systems. M.: Fizmatlit, 2001. - 272 р.)

3. Александрова З.Е. Словарь синонимов русского языка: Практический справочник. М.: Русский язык, 2001. - 568 с. (Aleksandrova Z.E. Russian Dictionary of synonyms: A Practical Handbook. M.: Russkij yazyk, 2001. - 568 p.).

^ Философские проблемы информационных технологий и киберпространства

Философия информации и проблема искусственного интеллекта

4. Ожегов С.И. Словарь русского языка. М.: Изд-во ОНИКС, 2006. -976 с. (Ozhegov S.I. Dictionary of Russian language. M.: Izd-vo ONIKS, 2006. - 976 р.)

5. Большой толковый словарь русского языка; сост. и гл. ред. С.А. Куз -нецов. СПб.: Норинт, 2000. - 1536 с. (Great Dictionary of Russian language; ed. S.A. Kuznecov. SPb.: Norint, 2000. - 1536 р.)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

6. Винер Н. Кибернетика, или Управление и связь в животном и машине. М.: Советское радио, 1958. - 216 с. (Wiener N. Cybernetics: Or Control and Communication in the Animal and the Machine. M.: Sovetskoe radio, 1958. - 216 p.)

7. Берталанфи Л. Общая теория систем: Критический обзор // Исследования по общей теории систем: Сборник переводов; общ. ред. и вст. ст. В.Н. Садовского и Э.Г. Юдина. М.: Прогресс, 1969. - С. 23-82. (Bertalanffy L. General System Theory - A Critical Review // Research on general systems theory: The Collection of translations; ed. V.N. Sa-dovskij, Eh.G. Yudin. M.: Progress, 1969. - Р 23-82.)

8. Stonier T. Information and the Internal Structure of the Universe: An Exploration into Information Physics. London: Springer-Verlag, 1990. -

166 р.

9. Абдеев Р.Ф. Философия информационной цивилизации. М.: Владос, 1994. - 247 с. (Abdeev R.F. Philosophy of information civilization. M.: Vlados, 1994. - 247 р.)

10. Гадасин В.А. Концепция триад - понятие «информация» как субстанция // Ежегодник ВНИИПВТИ: Сб. научных трудов. Минск, 2007. -С. 186-190. (Gadasin VA. The concept of triads - the concept of «information» as a substance // Yearbook VNIIPVTI: Coll. scientific papers. Minsk, 2007. - Р 186-190.)

11. Кадомцев Б.П. Динамика и информация. М.: Редакция журнала «Успехи физических наук», 1999. - 397 с. (Kadomcev B.P. Dynamics and Information. M.: Redakciya zhurnala «Uspekhi fizicheskih nauk», 1999. - 397 р.)

12. Новик И.Б. В.И. Ленин о единстве мира // Великое произведение воинствующего материализма. М.: Соцэкономиздат, 1959. - С. 165-181. (Novik I.B. V.I. Lenin about the unity of the world // The great work of militant materialism. M.: Socehkonomizdat, 1959. - Р. 165-181.)

13. Новик И.Б. Философские идеи Ленина и кибернетика. М.: Знание, 1969. - 48 с. (NovikI.B. Lenin’s philosophical ideas and cybernetics. M.: Znanie, 1969. - 48 р.)

14. Новик И.Б. Кибернетика: философские и социологические проблемы. М.: Госполитизат, 1963. - 208 с. (Novik I.B. Cybernetics: philosophical and sociological problems. M.: Gospolitizat, 1963. - 208 р.)

15. Ершов А.П. О предмете информатики // Вестник АН СССР. 1984. № 2. - С. 112-113. (ErshovA.P About the subject of Informatics // Vest-nik AN SSSR1984. № 2. - Р. 112-113.)

16. Урсул А.Д. Отражение и информация. М.: Мысль, 1973. - 231 с. (Ur-sulA.D. Reflection and Information. M.: Mysl’, 1973. - 231 р.)

№ 2 (10), декабрь 2015 URL: http://cyberspace.pglu.ru

25

17. Урсул А.Д. Природа информации: Философский очерк. Челябинск, 2010. - 231 с. (Ursul A.D. Nature of information: Philosophical Essays. Chelyabinsk, 2010. - 231 р.)

18. Глушков В.М. О кибернетике как науке // Кибернетика, мышление, жизнь. М.: Мысль. 1964. - С. 53-62. (Glushkov V.M. About cybernetics as a science // Cybernetics, thinking, life. M.: Mysl’, 1964. - Р. 53-62.)

19. Копнин П.В. Введение в марксистскую гносеологию. Киев: Наукова думка, 1966. - 288 с. (Kopnin P V. Introduction to Marxist epistemology. Kiev: Naukova dumka, 1966. - 288 р.)

20. Украинцев Б.С. Информация и отражение // Вопросы философии. 1963. № 2. - С. 26-41. (Ukraincev B.S. Information and reflection // Vo-prosy filosofii. 1963. № 2. - С. 26-41.)

21. Хартли Р. Передача информации // Теория информации и ее приложения; под ред. А.А. Харкевича. М.: Физматгиз, 1959. - С. 5-35. (Hartley R. Transmission of information // Information Theory and Its Applications; ed. A.A. Harkevich. M.: Fizmatgiz, 1959. - Р. 5-35.)

22. Shannon C.E. A Mathematical Theory of Communication // Bell System Technical Journal. 1948. Vol. 27. - P. 379-423, 623-656.

23. Shannon C.E. Communication in the Presence of Noise // Proceedings of the Institute of Radio Engineers. 1949. Vol. 37. - P. 10-21.

24. Иванников А.Д., Тихонов А.Н., Цветков В.Я. Основы теории информации. М.: мАкС Пресс, 2007. - 356 с. (IvannikovA.D., TihonovA.N., Cvetkov VYa. Fundamentals of information theory. M.: MAKS Press, 2007. - 356 р.)

25. Шредингер Э. Что такое жизнь с точки зрения физики? М.: РИМИС, 2009. - 172 с. (Schroedinger E. What is life? The Physical Aspect of the Living Cell. M.: RIMIS, 2009. - 172 p.)

26. Бриллюэн Л. Научная неопределенность и информация. М.: Мир, 1966. - 272 с. (Brillouin L. Scientific Uncertainty and Information. M.: Mir, 1966. - 272 p.)

27. Кондаков Н.И. Логический словарь-справочник. М.: Наука, 1975. -720 с. (KondakovN.I. Logical Dictionary. M.: Nauka, 1975. - 720 p.)

28. Шрейдер Ю.А. Об одной модели семантической теории информации // Проблемы кибернетики, 1965. Вып. 13. - С. 233-240. (Shrejder Yu.A. About a model of semantic information theory Problemy kibernetiki, 1965. Is. 13. - P. 233-240.)

29. Шрейдер Ю.А., Шаров А.А. Системы и модели. М.: Радио и связь, 1982. - 152 с. (Shrejder Yu.A., Sharov A.A. Systems and models. M.: Radio i svyaz’, 1982. - 152 p.)

30. Пресман А.С. Организация биосферы и ее космические связи. М.: ГЕО-СИНТЕГ, 1997. - 240 с. (Presman A.S. Organization of the biosphere and its cosmic connection. M.: GEO-SINTEG, 1997. - 240 p.)

31. Корогодин В.И. Определение понятия «информация» и возможности его использования в биологии // Биофизика. 1983. Т. 28. Вып. 1. -С. 171-177. (Korogodin VI. The definition of «information» and the possibility of its use in biology // Biofizika. 1983. V 28. Is. 1. - P. 171-177.)

26

Философские проблемы информационных технологий и киберпространства Философия информации и проблема искусственного интеллекта

32. Quastler H. The emergence of biological organization. New Heaven and London: Yale University Press, 1964. - 83 р.

33. Чернавский Д.С. Проблема происхождения жизни и мышления // Успехи физических наук. Т 170. 2000. № 2. - С. 157-183. (Cher-navskij D.S. The origin of life and thinking // Uspekhi fizicheskih nauk. V. 170. 2000. № 2. - P. 157-183.)

34. Чернавский Д.С. Синергетика и информация: Динамическая теория информации. М.: Едиториал УРСС, 2004. - 288 с. (Chernavskij D.S. Synergetics and Information: Dynamic information theory. M.: Editorial URSS, 2004. - 288 p.).

35. Мелик-Гайказян И.В. Информация и самоорганизация: Методологический анализ. Томск: Изд-во ТПУ, 1995. - 180 с. (Melik-Gajkazyan I.V Information and self-organization: Methodological analysis. Tomsk: Izd-vo TPU, 1995. - 180 p.).

36. Мелик-Гайказян И.В. Методология моделирования взаимосвязей необратимости, сложности и информационных процессов // Бюллетень сибирской медицины. 2006. № 5. - С. 101-115. (Melik-Gajkazyan I.V The methodology of modeling the relationships of irreversibility, complexity and information processes // Byulleten’ sibirskoj mediciny. 2006. № 5. - P. 101-115.)

i Надоели баннеры? Вы всегда можете отключить рекламу.