жения в иерархической пирамиде. ОЭ и ОНГ можно оптимизировать по целям и
критериям своей системы по критериям иерархически ниже- или вышестоящей
системы. В обеих случаях цели и целевые критерии могут резко отличаться.
Следовательно отличаются и ОЭ и ОНГ. Например, целью отдельной торговой
фирмы может быть получение максимальной прибыли. Соответст-венно этому
конкретными критериями являются максими-зация доходов, цен на товары,
объёма продажи, минимизация расходов, численности персонала и т.д. Целью
государства является повышение выпуска перспективной, но пока менее при-
быльной промышленной и сельскохозяйственной продук-ций, увеличение экс-
порта, инвестиций и капитальных вложе-ний. Эти задачи уменьшают прибыль
фирм. Противоречия между целями государства, фирм и отдельных членов об-
щест-ва необходимо решить законодательством путём конструк-тивного комп-
ромисса. В качестве научной основы для реше-ния этих противоречий целе-
сообразно сравнить ОЭ и ОНГ системы в разных уровнях обобщения. ОЭ и ОНГ
можно рассчитать не только относительно целевого критерия самой данной
системы, но и относительно целей всех комплексов систем высшего ранга,
элементом которых она является. Для этого рассчитывают вероятности ис-
полнения основного кри-терия как функции условных энтропий по влияющим
фак-торам. Так как критерии в разных уровнях иерархии разные, то и ОЭ и
ОНГ будут в них разные. Теоретически можно рас-считать и величины ОЭ и
ОНГ различного уровня обобщён-ности. В практических работах легче оце-
нить эффективность процессов в системе путём определения изменения ОЭф.
Изменение ОЭф выражается в виде суммы увеличения макси-мальной ОЭм и
увеличения ОНГ. DОЭ = DОЭм - DОНГ. Желательно, чтобы ОНГ системы после
операции повы-шалась бы во всех уровнях иерархического комплекса (ОЭ по-
нижается). Если ОНГ относительно нижних уровней уве-личивается, а отно-
сительно критериев верхних уровней понижается, то следует дополнительно
оптимизировать сис-тему, чтобы обеспечивать общее повышение ОНГ. Часто
при-ходиться идти на компромисс, т.е. обеспечить меньшее уве-личение ОНГ
на нижнем уровне для того, чтобы ОНГ на высшем уровне тоже повышалась.
Возникает вопрос, почему не определить все ОЭ и ОНГ систем относи-
тельно критериев систем самого высокого уровня обобщения, например на
уровне человеческого об-щества в целом или на уровне развития универсу-
ма? Это был бы самый идеальный случай: все координировали бы свои
действия на основе всемирного блага, в направлении умень-шения всемирной
ОЭ и повышения ОНГ. Однако, чем выше уровень обобщения, тем менее точным
становяться резуль-таты. Это обусловлено следующими факторами:
1. Чем выше уровень обобщения (объём комплекса систем), тем больше ОЭ
систем и тем труднее её моде-лировать.
2. Уменьшается гомоморфность моделей и их соответст-вие первичной ре-
альности. Увеличивается приближённость моделей, их неопределённость.
3. Падает удельный вес ОЭ изучаемой системы в общем ОЭ. Из-за этого
резко увеличивается неточность рассчётов, в т.ч. условных вероятностей.
4. В сильно обобщённых системах трудно определить оптимальные целевые
критерии. Резко повышается размер-ность системы, но и её многоцельность.
Для получения более точных данных необходимо со-четать результаты оп-
тимизации ОЭ и ОНГ на разных уров-нях обобщения и при применении соот-
ветствующих целевых критериев. Часто целесообразно поиск оптимальных ОЭ
и ОНГ провести по методам системного подхода, осуществляя его в виде
нескольких циклов (гл. 7) с целью постепенного приближения к оптимальным
решениям. Результаты опреде-ления ОНГ по критериям высших уровней пока-
зывают интересы всемирного или государственного развития. Крите-рии бо-
лее низкого уровня - интересы отдельных организаций и личностей. В слу-
чае оптимального управления величины ОНГ разного уровня должны совпадать
для конкретной системы. Большие отличия в ОНГ свидетельствуют о больших
пробелах в организации, о неупорядоченности комплексов систем. В госу-
дарственном масштабе требуются законодательные меры для оптимального уп-
равления и упорядочения деятельности всех лиц и организации по критериям
ОЭ и ОНГ.
5. ИНФОРМАЦИЯ И МЕТОДЫ
ЕЁ ИЗМЕРЕНИЯ
Обсуждению различных аспектов сущности, обработки и применения инфор-
мации посвящено огромное количество работ, в частности [ 24, 25, 27 -
35, 37 - 44 ]. Несмотря на многочисленность публикации многие основные
вопросы ос-тались до настоящего времени невыясненными. Близость мнений
достигнута только в том, что полученная информация уменьшает неопре-
делённость, незнание, беспорядок принима-ющей её системы. Почти все ав-
торы обращают внимание на возрастающeе значение информации во всех сфе-
рах неорга-нической и живой природы, в деятельности человека и об-щест-
ва. Неясных вопросов, однако, имеется намного больше. Из них первооче-
редного рассмотрения требуют следующие проблемы.
1. Сущность и возможности оценки неопределённости, вероятности, неу-
порядоченности, энтропии. Их взаимные отношения и влияние между система-
ми.
2. Механизм передачи информации от одной системы (или её элемента) к
другой. Как происходит само-произвольное образование каналов связи между
сложными системами.
3. Методика определения качества и количества переда-ваемой информа-
ции, в т.ч. многомерной, вероятностной, семантической и обобщённой.
ЗАГАДКИ НЕОПРЕДЕЛЁННОСТИ
Поскольку основой информации является уменьшение неопределённости
систем, необходимо точнее раскрыть её сущность и связь с такими понятия-
ми как вероятность, разно-образие, беспорядок, хаос, неупорядоченность,
энтропия, не-предсказуемость, деструктивность, рассеянность, стохас-тич-
ность, случайность и шум.
Наиболее общим понятием из перечисленных является неопределённость.
Меру неопределённости можно рассмат-ривать как функцию от числа возмож-
ных исходов и ком-бинаций элементов в системе. То же характеризует их
разнообразие. В любой системе её разнообразие зависит от количества раз-
личных элементов, числа и комбинаций их возможных состояний и количества
возможных связей между ними. Поэтому понятия "неопределённость" и "раз-
нообразие" часто употребляются как синонимы. Мерой неопределённости сис-
темы является её энтропия, для сложных многомерных систем - ОЭ. Однако,
ряд важных положений, для обосно-вания использования ОЭ выведены на оп-
ределённых допу-щениях. С помощью классических формул энтропию (не-опре-
делённость) можно охарактеризовать совокупностью всех независимых воз-
можных событий. С помощью условных вероятностей и условных энтропий мож-
но описать взаимную зависимость между событиями. Но существующие за-
ви-симости весьма разнообразны. При функциональной, детер-минированной
зависимости переходы системы из одного состояния в другое полностью пре-
допределены условиями (ОЭ = 0). Во многих процессах зависимости между
собы-тиями носят случайный характер. Среди них есть и такие, в которых
событие является сугубо индивидуальным резуль-татом исторически сложив-
шегося стечения случайных об-стоятельств, в цепи которых невозможно об-
наружить никаких закономерностей. Однако, при дополнительных допущениях,
и такие процессы (т.н.марковские случайные процессы) мож-но характеризо-
вать энтропией (К.Шеннон). Таким образом, применять энтропию как меру
неопределённости нужно очень осторожно, проверяя предварительно, нас-
колько исследуемый процесс при условиях данной задачи соответствует при-
нятым допущениям и ограничениям. Последние нужно выбирать в таком коли-
честве, чтобы обеспечить достаточную выполняе-мость расчётов, достовер-
ность данных и точность результа-тов. Понятие неупорядоченности является
отношением факти-
ческой к максимально возможной энтропии ОЭф ,показывает ОЭм
cтепень уменьшения ОЭм после получения ОНГ и колеблется
в пределах 0 < ОЭф < 1 ОЭм
Вероятность также характеризует неопределённость, но её прямое приме-
нение возможно при конкретных, более уз-ких пределах. Для многих сложных
вероятностей много-мерных систем применение условных вероятностей в
расчётах связано с большими трудностями. В мире нет чисто слу-чайных или
чисто детерминированных систем. Вероятност-ный компонент содержится во
всех в первичной реальности существующих системах. Они имеют бесконечно
большую размерность, неопределённость в микромире, во времени и прост-
ранстве. Их энтропия приближается к бесконечности. В реальном мире нет
абсолютно детерминированных систем. Имеются искусственно изолированные
во времени и в прост-ранстве системы, в которых детерминированный компо-
нент превалирует. Например, солнечная система. Движение планет подчиня-
ется законам гравитации, предсказуемо по математи-ческим уравнениям. Од-
нако, и эта система (орбита) изменя-ется по космическим масштабам быстро
и солнце само тоже не существует вечно (около 5 млрд. лет). Мысленно
можно создать модели, которые абсолютно детерминированные, т.е. исключа-
ют все случайности. Вероятность результата такой системы 1,0; ОЭ = 0.
Например, система состоит из формулы 2 ? 2 = 4. Вероятность достижения
целевой критерии 4 сос-тавляет 1,0; ОЭ = 0. Однако, такая система су-
ществует только в голове. В реальной жизни нет четырёх абсолютно одина-
ковых объектов, а при сложении разноценных систем результат становится
неопределённым.
Почти во всех системах неопределённость есть некото-рое отношение
элемента, входящего в множество, к числу всех элементов в множестве. В
каждом отношении сочета-ются случайные и неслучайные факторы. Соот-
ветственно с этим для уменьшения неопределённости системы необходимо со-
четать статистическую теорию информации с использова-нием априорной ин-
формации, теорий, гипотез и других мето-дов эвристического моделирова-
ния, в том числе с экспе-риментами.
Стохастичность и случайность можно считать синони-мами, также как и
неупорядоченность и беспорядок. Имеются понятия для обозначения неопре-
делённости в отдельных об-ластях: шум - в процессе инфопередачи, неп-
редсказуемость - в прогнозах будущего, деструктивность - в структуре,
рассеянность - в пространстве.
СУЩНОСТЬ ИНФОРМАЦИИ
Из огромного числа публикаций по проблеме сущности информации можно
выделить два её основных значения.
1. Давно применяемое "обыденное" значение, что сфор-мировал также
Н.Винер: "Информация - это обозначение содержания, полученного из внеш-
него мира в процессе на-шего приспособления к нему и приспосабливания
наших чувств [ 21 ]. Здесь информация выступает в роли знания, сообще-
ния.
2. Кибернетическое понятие информации, которое было сформулировано в
основополагающих работах Н.Винера, осо-бенно К.Шеннона в 1948 году [ 25
]. В теории Шеннона под информацией понимают только те передаваемые со-
общения, которые уменьшают неопределённость у получателя инфор-мации.
Следовательно информация измеряется разностью энтропий (Н) системы до и
после получения информации. Если целевые критерии системы-приёмника ин-
формации обо-значить В, а событие в системе-передатчике А, то количество
передаваемой информации:
J (A, B) = H(B) - H(B / A) > - lg2 P(B) + lg2 P(B / A)
В формуле выражен относительный характер среднего значения информа-
ции, как показателя зависимости между двумя событиями. Из формулы следу-
ет, что не существует абсолютной информации: есть информация относи-
тельно оп-ределённого события (критерия, цели) или объекта, содер-жащая-
ся в другом событии. Измерение энтропии системы имеет ценность потому,
что позволяет оценить влияние собы-тия А на событие В в форме разности
Н(В) - Н(В / А), т.е. по количеству информации. Последнее является
мерой отношения, взаимосвязи между системами, явлениями, процессами, а