Имя материала: Информационные системы и технологии в экономике

Автор: Т.П. Барановская

1.3. количество информации. методы оценки

 

Для того чтобы оценить и измерить количество информации в соответствии с вышеизложенными аспектами, применяются различные подходы. Среди них выделяются статистический, семантический, прагматический и структурный. Исторически наибольшее развитие получил статистический подход.

Статистический подход изучается в разделе кибернетики, называемом теорией информации. Его основоположником считается К. Шеннон, опубликовавший в 1948 г. свою математическую теорию связи. Большой вклад в теорию информации до него внесли ученые Найквист и Хартли. В 1924 и 1928 гг. они опубликовали работы по теории телеграфии и передаче информации. Признаны во всем мире исследования по теории информации российских ученых А.Н. Колмогорова, А.Я. Хинчина, В.А. Ко-тельникова, А.А. Харкевича и др.

К. Шенноном [37] было введено понятие количество информации как меры неопределенности состояния системы, снимаемой при получении информации. Количественно выраженная неопределенность состояния получила название энтропии по аналогии с подобным понятием в статистической механике. При получении информации уменьшается неопределенность, т. е. энтропия, системы. Очевидно, что чем больше информации получает наблюдатель, тем больше снимается неопределенность, и энтропия системы уменьшается. При энтропии, равной нулю, о системе имеется полная информация, и наблюдателю она представляется целиком упорядоченной. Таким образом, получение информации связано с изменением степени неосведомленности получателя о состоянии этой системы.

До получения информации ее получатель мог иметь некоторые предварительные (априорные) сведения о системе X Оставшаяся неосведомленность и является для него мерой неопределенности состояния (энтропией) системы. Обозначим априорную энтропию системы Xчерез Н(Х). После получения некоторого сообщения наблюдатель приобрел дополнительную информацию уменьшившую его начальную неосведомленность так, что апостериорная (после получения информации) неопределенность состояния системы стала Тогда количество информации / может быть определено как

Другими словами, количество информации измеряется уменьшением (изменением) неопределенности состояния системы.

Если апостериорная энтропия системы обратится в нуль, то первоначально неполное знание заменится полным знанием и количество информации, полученной в этом случае наблюдателем, будет таково:

т.е. энтропия системы может рассматриваться как мера недостающей информации.

Если система X обладает дискретными состояниями (т.е. переходит из состояния в состояние скачком), их количество равно N, а вероятность нахождения системы в каждом из состояний Р N

Р\% Р\% -..,Pn (причем       = 1 и Pt < 1), то согласно теореме Шен-

¥

Р2, Р\% ...,Рл<причем     ' = 1 и Pt < 1), то согласно теореме Шен-(=1

нона энтропия системы ЩХ) равна:

Н(Х) = -К0^РіоеаРі. 1=1

Здесь коэффициент А^о и основание логарифма а определяют систему единиц измерения количества информации. Логарифмическая мера информации была предложена Хартли для представления технических параметров систем связи как более удобная и более близкая к восприятию человеком, привыкшим к линейным сравнениям с принятыми эталонами. Например, каждый чувствует, что две однотипные дискеты должны обладать вдвое большей емкостью, чем одна, а два идентичных канала связи должны иметь удвоенную пропускную способность [37].

Знак «минус» перед коэффициентом Ко поставлен для того, чтобы значение энтропии было положительным, так как Р1 < 1 и логарифм в этом случае отрицательный.

Если все состояния системы равновероятны, т.е. Pt = —, ее

энтропия рассчитывается по формуле

 

ЩХ) = -*o£^l°ga ^ = *о 'ogfl N. i"=i

Энтропия Н обладает рядом свойств; укажем два из них: 1) Н = О только тогда, когда все вероятности Pt, кроме одной, равны нулю, а эта единственная вероятность равна единице. Таким образом, Н = О только в случае полной определенности состояния системы;

2) при заданном числе состояний системы величина Н максимальна и равна Kq loga N, когда все Pt равны.

Определим единицы измерения количества информации с помощью выражения для энтропии системы с равновероятными состояниями.

Пусть система имеет два равновероятных состояния, т.е. N - 2. Будем считать, что снятие неопределенности о состоянии такой системы дает одну единицу информации, так как при полном снятии неопределенности энтропия количественно равна информации Н = I. Тогда

Очевидно, что правая часть равенства будет тождественно равна единице информации, если принять А^о = 1 и основание логарифма а = 2. В общем случае при N равновероятных состояний количество информации будет такова:

Эта формула получила название формулы Хартли и показывает, что количество информации, необходимое для снятия неопределенности о системе с равновероятными состояниями, зависит лишь от количества этих состояний.

Информация о состояниях системы передается получателю в виде сообщений, которые могут быть представлены в различной синтаксической форме, например в виде кодовых комбинаций, использующих т различных символов и п разрядов, в каждом из которых может находиться любой из символов. Если код не избыточен, то каждая кодовая комбинация отображает одно из состояний системы. Количество кодовых комбинаций будет

 

N = тп.

Подставив это выражение в формулу для /, получим:

Если код двоичный, т.е. используется лишь два символа (0 и 1), то т - 2 и / = п.

В этом случае количество информации в сообщении составит п двоичных единиц. Эти единицы называют битами (от англ. Binary digit (bit) — двоичная цифра).

При использовании в качестве основания логарифма числа единицы измерения информации могут быть десятичными, или

дитами. Так как log2^ = logioN/log102 = 3,321ogiN, то десятичная единица составляет примерно 3,33 бита.

Иногда удобно применять натуральное основание логарифма е. В этом случае получающиеся единицы информации называются натуральными или натами. Переход от основания а к основанию b требует лишь умножения на a.

Введенная количественная статистическая мера информации широко используется в теории информации для оценки собственной, взаимной, условной и других видов информации. Рассмотрим в качестве примера собственную информацию. Под собственной информацией будем понимать информацию, содержащуюся в данном конкретном сообщении. А конкретное сообщение, как указывалось, дает получателю информацию о возможности существования конкретного состояния системы. Тогда количество собственной информации, содержащееся в сообщении Xj, определяется как

Собственная информация обладает следующими свойствами:

собственная информация неотрицательна;

чем меньше вероятность возникновения сообщения, тем больше информации оно содержит. Именно поэтому неожиданные сообщения так воздействуют на психику человека, что содержащееся в них большое количество информации создает информационный психологический удар, иногда приводящий к трагическим последствиям;

если сообщение имеет вероятность возникновения, равную единице, то информация, содержащаяся в нем, равна нулю, так как заранее известно, что может прийти только это сообщение, а значит, ничего нового потребитель информации не получает;

 

2-1909

4) собственной информации присуще свойство аддитивности, т.е. количество собственной информации нескольких независимых сообщений равно сумме собственной информации сообщений. Например, для собственной информации двух сообщений    и    может быть записано:

Следует еще раз отметить, что статистический подход к количественной оценке информации был рассмотрен для дискретных систем, случайным образом переходящих из состояния в состояние, и, следовательно, сообщение об этих состояниях также возникает случайным образом. Кроме того, статистический метод определения количества информации практически не учитывает семантического и прагматического аспектов информации.

Семантический подход определения количества информации является наиболее трудно формализуемым и до сих пор окончательно не определившимся.

Наибольшее признание для измерения смыслового содер-

жания информации получила    мера, предложенная

Ю.И. Шнейдером. Идеи тезаурусного метода были сформулиро-

ваны еще основоположником кибернетики Н. Винером. Для по-

нимания и использования информации ее получатель должен об-

ладать определенным запасом знаний.

Если индивидуальный тезаурус потребителя Sn отражает его знания о данном предмете, то количество смысловой информации /с, содержащееся в некотором сообщении, можно оценить степенью изменения этого тезауруса, произошедшего под воздействием данного сообщения. Очевидно, что количество информации нелинейно зависит от состояния индивидуального тезауруса пользователя, и хотя смысловое содержание сообщения постоянно, пользователи, имеющие различные тезаурусы, будут получать неодинаковое количество информации. В самом деле, если индивидуальный тезаурус получателя информации близок к нулю (Sri ~ 0), то в этом случае и количество воспринятой информации равно нулю: /с = 0.

Иными словами, получатель не понимает принятого сообщения и, как следствие, для него количество воспринятой информации равно нулю. Такая ситуация эквивалентна прослушиванию сообщения на неизвестном иностранном языке. Несомненно, со

общение не лишено смысла, однако оно непонятно, а значит, не имеет информативности.

Количество семантической информации В сообщении также будет равно нулю, если пользователь информации абсолютно все знает о предмете, т.е. его тезаурус и сообщение не дают ему ничего нового.

Интуитивно мы чувствуем, что между этими полярными зна-

чениями тезауруса пользователя существует некоторое оптималь-

ное значение           количество информации /с,

извлекаемое из сообщения, становится для получателя максималь-

ным. Эта функция зависимости количества информации от

состояния индивидуального тезауруса пользователя приведе-

на на рис. 1.4.

Тезаурусный метод подтверждает тезис о том, что информация обладает свойством относительности и имеет, таким образом, относительную, субъективную ценность. Для того чтобы объективно оценивать научную информацию, появилось понятие общечеловеческого тезауруса, степень изменения которого и определяла бы значительность получаемых человечеством новых знаний.

Прагматический подход определяет количество информации как меры, способствующей достижению поставленной цели. Одной из первых работ, реализующей этот подход, явилась статья А.А. Харкевича. В ней он предлагал принять за меру ценности информации количество информации, необходимое для достижения поставленной цели. Этот подход базируется на статистической теории Шеннона и рассматривает количество информации как приращение вероятности достижения цели. Так, если принять вероятность достижения цели до получения информации равной а после ее получения прагматическое количество информации     определяется как

 

Если основание логарифма сделать равным двум, то /п будет измеряться в битах, как и при статистическом подходе.

При оценке количества информации в семантическом и прагматическом аспектах необходимо учитывать и временную зависимость информации. Дело в том, что информация, особенно в системах управления экономическими объектами, имеет свойство стареть, т.е. ее ценность со временем падает, и важно использовать ее в момент наибольшей ценности.

Структурный подход связан с проблемами хранения, реорганизации и извлечения информации и по мере увеличения объемов накапливаемой в компьютерах информации приобретает все большее значение.

При структурном подходе абстрагируются от субъективности, относительной ценности информации и рассматривают логические и физические структуры организации информации. С изобретением компьютеров появилась возможность хранить на машинных носителях громадные объемы информации. Но для ее эффективного использования необходимо определить такие структуры организации информации, чтобы существовала возможность быстрого поиска, извлечения, записи, модификации информационной базы.

При машинном хранении структурной единицей информации является один байт, содержащий восемь бит (двоичных единиц информации). Менее определенной, но также переводимой в байты является неделимая единица экономической информации — реквизит.

Реквизиты объединяются в показатели, показатели — в записи, записи — в массивы, из массивов создаются комплексы массивов, а из комплексов — информационные базы. Структурная теория позволяет на логическом уровне определить оптимальную структуру информационной базы, которая затем с помощью ределенных средств реализуется на физическом уровне — уровне технических устройств хранения информации. От выбранной структуры хранения зависит такой важный параметр, как время доступа к данным, т.е. структура влияет на время записи и считывания информации, а значит, и на время создания и реорганизации информационной базы.

Информационная база совместно с системой управления базой данных (СУБД) формирует автоматизированный банк данных.

Значение структурной теории информации растет при переходе от банков данных к банкам знаний, в которых информация подвергается еще более высокой степени структуризации.

После преобразования информации в машинную форму ее аналитический и прагматический аспекты как бы уходят в тень, и дальнейшая обработка информации происходит по "машинным законам", одинаковым для информации любого смыслового содержания. Информация в машинном виде, т. е. в форме электрических, магнитных и тому подобных сигналов и состояний, носит название данных. Для того чтобы понять их смысловое содержание, необходимо данные снова преобразовать в информацию (рис. 1.5).

Преобразования "информация — данные" производятся в устройствах ввода-вывода ЭВМ.

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 |