КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Количество и качество информацииИсследованием методов передачи, хранения и приема информации занимается теория информации, инструментами которой служат теория случайных процессов, теория кодирования, математическая статистика, теория вероятностей. Внимание к проблеме передачи и количественной оценки информации было привлечено фундаментальными работами Н. Винера и К. Шеннона (США), положившими начало теории информации. Значительный вклад в теорию информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, В.А. Котельников, работы которых хорошо известны специалистам во всем мире. Важнейшим этапом в теории развития информации явилась количественная оценка информации. Только принимая за основу новизну сведений, можно дать количественную оценку информации, так как новизна сведений является следствием неопределенности сведений об объекте, процессе, явлении, а неопределенность поддается измерению. Основываясь на идее, что информация устраняет некоторую неопределенность, т. е. незнание, описание любого события или объекта формально можно рассматривать как указание на то, в каком из возможных состояний находится описываемый объект. Тогда протекание событий во времени есть не что иное, как смена состояний, выбранных с некоторой вероятностью из числа всех возможных. Чем выше уровень неопределенности выбора, тем требуется больший объем информации, и результат выбора имеет значительную степень неожиданности. Вот почему в теории информации количество информации является мерой снятия неопределенности одной случайной величины в результате наблюдения за другой. Если величины независимы, то количество информации равно нулю. Самым простейшим случаем является выбор альтернативы из двух событий. Поэтому за единицу информации целесообразно принять количество информации, заключенное в выборе одного из двух равновероятных событий. Эта единица называется двоичной единицей, или битом. Итак, при любой неопределенности сужение области выбора вдвое дает одну единицу информации. Формулу измерения количества информации можно получить эмпирически: для снятия неопределенности в ситуации из двух равновероятных событий необходим один бит информации; при неопределенности, состоящей из четырех событий, достаточно двух бит информации, чтобы угадать искомый факт. Таким образом, если сообщение указывает на один из n равновероятных вариантов, то оно несет количество информации, равное log2n. Ту же формулу можно словесно выразить иначе: количество информации равно степени, в которую необходимо возвести 2, чтобы получить число равноправных вариантов выбора, т. е. 2i = 16, где i = 4 бита. Будем различать понятия «информация» и «сообщение». Под сообщением обычно подразумевают информацию, выраженную в определенной форме и подлежащую передаче. Сообщение — это форма представления информации. Есть одна особенность, которая связана с количеством хранимой или переданной информации, представленной в двоичных единицах, и количеством информации, заключенным в данном сообщении. Измерение только количества информации не отвечает насущным потребностям современного общества, необходима мера ценности информации. Проблема определения ценности информации исключительно актуальна в настоящее время. Разработанные методы определения ценности информации призваны сыграть существенную роль в получении человеком необходимой информации. Информация называется полезной, если она уменьшает неопределенность решающего алгоритма. Американским ученым Н. Винером предпринята попытка построить семантическую теорию информации. Суть ее состоит в том, что для понимания и использования информации ее получатель должен обладать определенным запасом знаний. По мере роста наших знаний о предмете растет и количество научной информации, извлекаемой из сообщения. Если назвать имеющиеся у получателя знания о данном предмете тезаурусом (т. е. неким сводом слов, понятий, названий объектов, связанных смысловыми связями), то количество информации, содержащейся в некотором сообщении, можно оценить степенью изменения индивидуального тезауруса под воздействием данного сообщения. Иными словами, количество семантической информации, увлекаемой получателем из поступающих сообщений, зависит от степени подготовленности его тезауруса для восприятия такой информации. В связи с этим появилось понятие общечеловеческого тезауруса, относительно которого можно было бы измерять семантическую ценность научной информации. Пока можно сделать вывод, что задача определения ценности информации при достаточной степени формализации, которая требуется при компьютеризованной оценке, еще не решена, однако это не означает невозможности ее решения в будущем.
|