компании выделиться из общей массы конкурентов или позиционировать свой товар, а имидж, или образ, - это восприятие компании или ее товаров обществом». Примером достижения великолепных результатов путем создания удачного имиджа является компания «Марлборо» с их «лихим ковбоем» (компания занимает около 30% рынка сигарет21). Такой образ определяет выбор многих курящих мужчин, соотносящих себя с группой «настоящих мужчин», олицетворяемых ковбоем.
При использовании данного вида стратегии важно помнить, что на восприятие потребителями имиджа может влиять даже физическое пространство, в котором компания производит или поставляет продукцию или услуги. Например, гостиницы «Хайат Редженси» славятся своими вестибюлями, построенными по аналогии с атриумами. Компании «Боинг», «Бен энд Джерри’с», «Крайола» используют еще один способ создания сильного имиджа - они организуют экскурсии по штаб-квартире или заводу компании. Компании «Хол-лмарк» и «Кохлер» также работают над созданием успешного имиджа и даже открыли при своих штаб-квартирах корпоративные музеи, где посетители могут ознакомиться с историей компании и увидеть собственными глазами, как производится продукция.
Для того чтобы компании решить, какую стратегию или стратегии дифференцирования использовать, Э.Крего и П. Шиффрин
высказали предположение, что ориентированные на потребителя организации должны определить, какое свойство продукта или характеристика услуги представляют наибольшую ценность для покупателей, и подготовить предложение, которое превзойдет ожидания потребителей. Они разделили данный процесс на три этапа:
• Создание модели потребительских предпочтений;
• Построение иерархии потребительских ценностей;
• Определение пакета потребительских ценностей.22
Таким образом, как выразился Ф. Котлер, «дифференцирование является ключом к завоеванию фирмой конкурентного преимущества» и примеры успешных зарубежных марок постоянно доказывают это. При этом необходимо отметить, что так называемый эффект дифференциации достигается лишь тогда, когда потребитель настолько уверен в своем положительном отношении к отличительным свойствам товара, что готов заплатить за это.
Итак, целесообразно сделать вывод о том, что ни одна компания не сможет добиться успеха, если ее товары или услуги будут похожи на прочие предложения на рынке. Каждая компания должна стремиться к актуальному для потребителей позиционированию и дифференцированию. Грамотное управление брендом требует, чтобы каждая компания и предложение представляли в глазах целевого рынка отличительную и значительную идею.
17 Райзберг Б. А., Лозовский Л. Ш., Стародубцева Е. Б. Современный экономический словарь. 5-е изд., перераб. и доп. — М.: ИНФРА-М, 2007. (Б-ка словарей «ИНФРА-М»).
18Котлер Ф., Келлер К.Л указ. соч. - стр. 347.
19 Котлер Ф., Келлер К.Л. указ. соч. - стр. 347.
20 http://www.phoenix.edu/students.html
21 Котлер Ф., Келлер К.Л. указ. соч. - стр. 347.
22 Edwin T. Crego Jr., Peter D. Schiffrin. «Customer Centered Reengineering» (Homewood, IL: Irwin, 1995).
ИЗМЕРЕНИЕ ИНФОРМАЦИИ В ЭРГАСИСТЕМАХ
Сухов А. В., профессор «МАТИ» - Российский государственный технологический университет имени К.Э. Циолковского, доктор
технических наук
Прокопенко В. С., аспирант ФГУП «Научно-исследовательский центр информации по стандартизации метрологии и оценке
соответствия»
Приведён анализ информационных мер, используемых в технологических процессах переработки информации для эргатических систем, и рассмотрена наиболее приемлемая информационная мера для эргасистем - энтропия покрытия, позволяющая измерять (оценивать) состояние элементов эргасистем и объёмы информационных потоков в едином информационном пространстве, основанном на этой мере. Приведены единицы измерения энтропии покрытия.
Ключевые слова: эргасистема; информационная система; энтропия покрытия; обобщённая энтропия покрытия; информационное пространство отношений.
INFORMATION MEASUREMENT IN ERGATIC SYSTEMS
Sukhov A., professor of the «MATI» - Russian State Technological University, Doctor of Sciences, Technical Prokopenko V., the post-graduate student, FGUP «Russian Scientific and Technological Center of Information on Standardization Metrology
and Evalution of Compliance»
The analysis of the information measures used in technological processes of information processing for ergatic systems is presented, and the most comprehensible information measure for ergatic systems - covering entropy is considered. It allows to measure (estimate) a condition of ergatic system elements and volumes of information streams in the uniform information field based on this measure. Equivalent covering entropy units are given.
Keyword: erg - system; information system; covering entropy; the generalised covering entropy; an information field.
Развитие технического прогресса приводит к тому, что современное общество всё сложнее делить на чисто социальные структуры. Эти структуры практически все (в той или иной степени) обладают техническими достижениями современной цивилизации и в том числе электронно-вычислительной техникой. Сложная система управления объектами технических, технологических, организационных и экономических комплексов, в которой управляющая система содержит человека-оператора или группу операторов как главный компонент, характеризующийся функциональной активностью и функциональным гомеостазисом на множестве функциональных возможностей в условиях динамически изменяющейся внешней среды является эргатической системой (эргасистемой) [3].
Современное общество в XXI веке испытывает мощный подъём различного рода информационных процессов. В первую очередь это связано с созданием широкой сети телекоммуникаций, позволяющей вести оперативный информационный обмен между пользо-
вателями. Значительный вклад вносит бурное развитие вычислительной техники. При этом можно отметить следующие отличительные особенности этого процесса:
ежегодный рост продуктивности современных вычислительных комплексов (по оценкам специалистов за последние годы продуктивность вычислительных комплексов ежегодно удваивается [1, 2]);
широкое распространение компьютерных сетей информационного обмена;
значительное снижение габаритно-весовых характеристик современных вычислительных комплексов;
значительный рост эргономических показателей и общего удобства работы пользователей;
постоянный рост надежности вычислительных комплексов; внедрение компьютерных технологий практически во все сферы жизни общества и др.
Вместе с тем наблюдается всё больший рост потребностей об-
щества в создании надёжных хранителей накопленной информации, надёжных сетей информационного обмена, надёжных и быстродействующих средств обработки информации. Вопросы, связанные с экономическим соперничеством за рынки сбыта продукции, конкуренцией, требуют разрешения проблем по защите баз данных и сетей информационного обмена от несанкционированного доступа. А весь круг указанных выше вопросов относится к понятию технологических процессов переработки информации.
Современное состояние информационных технологий целесообразно рассмотреть с позиций: общего понятия «информация для эргасистем», вопросов информационного обмена между эргасис-темами - информационного взаимодействия (защиты, соперничества и сотрудничества), анализа информационных технологий.
Во всех этих случаях базовым понятием является информация, и, поскольку речь идёт социально-технических системах (СТС), это понятие должно иметь чёткое метрическое представление.
Анализ понятия «информация» для эргасистем
Наиболее размытым в наше время является определение понятия «информация», что в первую очередь связано с бурным ростом различных технологий по обработке, хранению и передаче данных, сведений о различных процессах и явлениях во всех сферах жизни нашего общества. Интуитивно для всех этих процессов напрашивался термин «информация» (происходит от лат. informatio - разъяснение, изложение), который первоначально понимался как сведения, передаваемые людьми устным, письменным или другим способами. Позднее под информацией стали понимать обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке, от организма к организму [1, 2, 3, 4]. Философское обоснование информации нашло своё место в систе-мологии. Под информацией понимают [1, 2]:
1) сообщения о чём-либо;
2) сведения, являющиеся объектом хранения, переработки и передачи;
3) количественную меру устранения неопределённости (энтропия), меру организации системы;
4) свойство объектов (процессов) окружающего материального мира порождать разнообразие состояний, которые посредством отражения передаются от одного объекта к другому (пассивная форма) и средство ограничения разнообразия и организации, т.е. управления, дезорганизации и др. (активная форма).
Многофункциональное слово «информация» - это сообщения или сведения о природе и обществе, явлениях и процессах, протекающих во Вселенной.
Другие определения информации основываются на свойствах объектов порождать разнообразие состояний, передаваемых посредством отражения или на системе идеальных образов объектов и системе присущих им признаков, или сведениях и данных об объекте, потенциально доступных для измерения.
Информация имеет две стороны: количественную и качественную [5]. Количественная сторона характеризует объемы переданной, принятой обрабатываемой или хранимой информации. Эта сторона полезна при решении задач, связанных с заданием или исследованием технических характеристик систем. Качественная сторона информации характеризует её содержательную часть, определяющуюся не объемами информации, а непосредственной реакцией пользователя.
Для технических систем требовалось определить количественную меру информации. Количественная мера для измерения информации впервые была введена Р. Хартли. Эта мера описывала энтропию - меру вероятности множества равновероятных событий (термин «энтропия» применительно к информации был введён позже К. Шенноном):
Нх = k log M, (1)
где M - количество возможных состояний или количество степеней свободы случайной величины.
Впервые понятие энтропии как меры вероятности пребывания системы в данном состоянии введено Р. Клаузиусом в середине XIX века, затем в начале XX века обобщено Л. Больцманом на законы термодинамики.
В своих работах К. Шеннон [6] определил энтропию для разновероятных исходов случайных величин. Для дискретных случайных величин энтропия имеет следующий вид:
Hx = - k x P (x) log P (x^ (2)
где P (x) - распределение вероятностей случайной величи-
ны x,
k - константа, определяющая единицы измерения энтропии.
Для непрерывных случайных величин дифференциальная энтропия первоначально была введена К. Шенноном:
H x = - k p(x) log p(x) dx (3)
где p(x) - плотность распределения вероятностей случайной величины x,
X - область определения случайной величины x.
Этим же вопросом занимался ещё ряд исследователей. Следует отметить корректное определение энтропии для непрерывных случайных величин Р. Л. Стратоновичем [5]. Им же обосновано проявление единства законов природы на примере температуры в термодинамике и потока плотности вероятности в теории эргасис-тем. Им же предложено называть вышеуказанные информационные меры больцмановской энтропией.
Отдельно следует выделить теорию семантической информации [7], в которой определена элементарная и неэлементарная информация, их носители, количественная мера информации, разработана теория ультраоператоров. Всё это позволило с новых позиций описать системы искусственного интеллекта.
На всех количественных мерах информация определяется как величина измененённой в ходе опыта неопределённости (энтропии):
I = L(H, t), t [t о, t к] (4)
где 10, t к - время начала и окончания опыта,
L - оператор изменения энтропии в ходе опыта. Для количественных информационных мер, представленных выше, и для ряда других информационных мер этот оператор представляет просто разность априорной и апостериорной энтропии:
L(H, t - t k) = H - H , (5)
' 0 к apr aps 4 !
где H apr - априорная энтропия,
HapS - апостериорная энтропия.
Другие определения информации основываются на свойствах объектов порождать разнообразие состояний, передаваемых посредством отражения или на системе идеальных образов объектов и системе присущих им признаков, или сведениях и данных об объекте, потенциально доступных для измерения. Возможны другие определения информации, удобные для использования в конкретных приложениях.
Информация может классифицироваться по различным признакам. Признаки классификации определяют конкретную структуру получаемой классификационной картины. В настоящее время известно достаточно много подходов к классификации для термина «информация», среди известных работ можно привести [1 - 8]. Здесь отметим наиболее общие признаки классификации, удобные для описания эргасистем:
сфера применения понятия «информация»;
форма представления;
источники информации;
вид информации;
описание объекта информации;
стороны представления.
Сфера применения понятия «информация» определяет её подразделение на политическую, экономическую, военную, духовную.
По форме информация подразделяется на образную (идеальную) и признаковую (духовную).
По источникам информация подразделяется на информацию психики человека, информационно-технических систем, объектов материального мира, документальных источников, управляющих систем.
Вид информации связан с источниками информации. Для психики человека это знания, навыки, умения. Для информационнотехнических систем информацией являются сигналы, данные, программы. Объекты материального мира имеют информацию в виде характеристик и параметров. Для документальных источников информация представляется в виде знаков (символов) и сообщений. Для эргасистем информация подразделяется на осведомляющую, преобразующую, управляющую.
По описанию объекта информации рассматривается информация об объекте (семантическая информация [7]), информация по отношению к объекту [3], а также информация на основе статистических мер и нечётких мер. Семантическая информация представляется как элементарная и неэлементарная. По отношению к объекту информация представляется как объективная информация, являющаяся внутренней структурной информацией объектов, и субъективная информация, являющаяся внешней относительной информацией объекта.
Информационные меры позволяют количественно упорядочить различные источники информации с заданной системой правил,
определяющих отношения между ними. Описание некоторых мер приведено в [1, 2]. Авторами и разработчиками таких мер являются Р. Хартли, К. Шеннон, Р. Стратонович, С. Кульбак, А. Шилейко, В. Кочнев, Ю. Шрейдер, А. Харкевич, Н. Моисеев, А. Чечкин, Л. -Заде, Р. Фишер. Каждая информационная мера синтезируется в соответствии с её представлением по приводимому классификатору и, естественно, с целью наибольшего соответствия рассматриваемым процессам, объектам материального мира.
По сторонам представления, как указывалось выше, информация может быть количественной и качественной. Количественная сторона характеризует общее количество информации об объекте, а качественная - вид сообщения, его конкретное содержание. Количественная сторона позволяет оптимизировать технологические процессы переработки информации, а качественная сторона непосредственно инициирует конкретные процессы, приводит к конкретным решениям. Отметим, что под качеством информации может пониматься степень её соответствия потребностям пользователей, но это опять же количественная сторона информации.
Качественная сторона не предусматривает метрического представления. Эта информация определяет цели управления в эргаси-стемах. К примеру, при показателе качества «энергия» для одного энергопотребляющего объекта 100 кВтЧч может оказаться вполне достаточным потреблением за месяц, в то время как для более крупного объекта этого окажется крайне недостаточно, и качественная сторона информации об этих поступлениях энергии будет разной. Если критерий «качество» для измерения качественной стороны информации введён, то эта информация будет уже метрической величиной, следовательно, может быть измерена. Но поскольку принято, что качественная сторона не может быть определена количественно, для разрешения конфликтов в терминологии предлагается не употреблять термин «качественная сторона информации», а использовать термин «содержательная сторона информации».
Объединяющим информационным подходом по признакам «количественная» и «качественная» стороны информации может являться подход, основанный на энтропии покрытия [2, 3, 9, 10]. Эта информационная мера была специально введена для оптимизации информационных процессов, протекающих в эргасистемах.
Определим в информационной целевой области отношений меру, т.е. количественную величину, отражающую соответствие ресурсной (предметной) и информационной областей отношений.
В общем виде эта функция имеет вид:
Н: (Г %) X Н X (6)
где (/* %) - композиция некоторых функций /Ч) и g(Ч).
В целевой области отношений (будем информационную область определять, исходя из решения целевой задачи) необходимо учесть следующие требования.
1. Функция /(Ч) должна быть некоторой неубывающей неотрицательной на действительном аргументе (на комплексном аргументе - комплексной величиной, принадлежащей I квадранту комплексной плоскости, т.е. с неотрицательными значениями действительной и мнимой составляющих комплексного числа) функцией. Это следует из необходимости роста её значения с ростом степени неудовлетворения техническим требованиям.
2. При мультипликативном возрастании аргумента функция /(Ч) должна обладать аддитивным возрастанием, соответствующим повышению информативности решения задачи СТС на определенную величину при возрастании результата в данное количество раз.
3. Применительно к вектору функция /(Ч) должна обладать свойством аддитивности по компонентам вектора.
4. Функция g(Ч) должна обладать свойством «степени соответствия потребности», т.е. приращение абсолютной величины её аргумента должно быть связано с требуемым допуском к этому аргументу и, в идеале, не выходить за пределы этого допуска, минимальное действительное значение составляет 0.
В случае выполнения требований 1, 2 имеем
р(п а) =/ (п) +/ (а)■ (7)
Обозначим у = п а. Тогда ¡и п = ¡и у - ¡и а, и из (7) имеем / (у) = ¡п У - ¡п а + /(а), f (у) = 1п у + А.
Здесь А от у не зависит. Тогда желательно избавиться от лишнего свободного члена. В этом случае
А = /(а) - 1п а = 0 /(а) = 1п а.
И тогда
/ (У) = ¡п у. (8)
Используем требование 3 для m-мерного вектора:
f (У) = i f (y i) = i log y i (9)
Требование 4 определяет, что g(.) прямо пропорциональна отношению приращения x рассматриваемой величины x к требуемому допуску по этой величине Хт, если это приращение больше допуска.
Следовательно, при x > хт
g (x) = p x / x т. (10)
Учтём ситуацию, когда х} < х2 и будет иметь место отношение x / xm меньшее единицы. В общем, векторном случае степень соответствия - элемент покрытия - имеет вид
Рп = || Dp\Dm Dm\\„ / || Dm
(11)
где операция \ - операция разности множеств реальных технических показателей Э и требуемых технических показателей Э , ||.|| -
р х у ж 11 "п
операция приведения к норме (норма).
Теоретико-множественная мера неопределённости сведения о соответствии параметров объекта их нормативным значениям (относительного покрытия по приведению к норме множества реальных технических параметров объекта множеством требуемых параметров - «энтропия покрытия») [2, 3, 9]:
Hc(D, Do) = k ln [Ц Dp\Dm DmWn / || Dm Цп]
(12)
где к - коэффициент пропорциональности, определяющий единицы измерения энтропии покрытия:
при к = 1 используются натуральные единицы измерения, наты покрытия;
при к = 1/1п2 - двоичные единицы или биты покрытия;
при к = 1/1п10 - десятичные, диты покрытия.
И на примере результатов, опубликованных в [2, 9, 10, 11], можно сделать вывод, что энтропия покрытия позволяет математически обоснованно решать задачи оптимального информационного управления в условиях статистической неопределённости.
Из представленного многообразия форм информации видно, что разные подходы к определению понятия «информация» связаны с разными позициями по области применения этих определений. Поэтому определение и описание информации не может рассматриваться абстрактно, изолировано от конкретной области приложения этого понятия.
Литература:
1. Энциклопедия информациологии / Под ред. А. М. Прохорова. М.: Информациология, 2000. 467 с.
2. Сухов А. В. Методы и технологии выработки управленческих решений. М.: ВА РВСН им. Петра Великого, 2003. 287 с.
3. Ловцов Д. А. Информационная теория эргасистем: Тезаурус. М.: Наука, 2005. 248 с.
4. Варайский Ф. С. Информатика. Новый систематизированный толковый словарь-справочник. М.: Либерия, 2001. 536 с.
5. Стратонович Р. Л. Теория информации. М.: Сов. радио, 1975. 424 с.
6. Шеннон К. Работы по теории информации и кибернетике. М.: Иностранная литература, 1963. 830 с.
7. Чечкин А. В. Математическая информатика. М.: Наука, 1991. 416 с.
8. Урсул А. Д. Проблема информации в современной науке. Философские очерки. М.: Наука, 1975. 283 с.
9. Сухов А. В. Динамика информационных потоков в системе управления сложным техническим комплексом // Теория и системы управления. - 2000. - № 4. - С. 111 - 119.
10. Бурый А. С., Сухов А. В. Оптимальное управление сложным техническим комплексом в информационном пространстве // Автоматика и телемеханика. 2003. № 7. С. 145 - 162.
11. Сухов А. В. Синтез оптимального управления сложным техническим комплексом в информационном пространстве: В кн. Информатизация управления / Под ред. Д. А. Ловцова. М.: ВА РВСН им. Петра Великого, 2003. С. 74 - 84.
12. Ловцов Д. А., Сергеев Н. А. Управление безопасностью эргасистем / Под ред. Д. А. Ловцова. М.: РАУ-Университет, 2001. 224 с.
13. Касти Дж. Большие системы. Связность, сложность и катастрофы. - М.: Мир, 1982. 216 с.
14. Кучин Б. Л., Якушева Е. В. Управление развитием экономических систем: технический прогресс, устойчивость. М.: Экономика, 1990.