Студопедия

КАТЕГОРИИ:

АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника


Информация — абстрактная фикция




Единственное определение информации, которое не вызвало открытых возражений в научном сообществе, при­надлежит «отцу кибернетики», математику Норберту Винеру (1894—1964), который в 1948 г. написал: «Инфор­мация есть информация, а не материя и не энергия»[93]. Из этого определения вытекает, что информация — не суще­ствующий реально объект, а умственная абстракция, то есть созданная человеческим разумом фикция.

В этом же смысле, в смысле математической абстрак­ции понятие информации используется в теории инфор­мации(теории коммуникации), развитой в конце 40-х го­дов американским математиком Клодом Шенноном(род. в 1916 г.). В этой теории понятие информации служит для решения практических задач, с которыми сталкиваются инженеры-связисты: оптимизация кодирования сообще­ний, повышение помехоустойчивости, распознавание сиг­налов на фоне шумов, расчет пропускной способности каналов связи и т.п. К. Шеннон ориентировался на схему технической коммуникации, приведенную на рис. 1.3.

Каждому сигналу или их ансамблю (например, букве или слову), которые передаются по данному коммуника­ционному каналу, на основе известных статистических частот приписывалась априорная вероятность их появле­ния. Считалось, что чем менее вероятно, т.е. чем более неожиданно, появление того или иного сигнала, тем боль­ше информации для потребителя несет этот сигнал. Мож­но найти содержательные основания для подобной трак­товки в обыденном понимании информации как новости, известия[94]. Удобство вероятностно-статистического пред­ставления коммуникационной деятельности состоит в том, что можно ввести количественную меру для оценки степени «неожиданности» сообщения. В простейшем слу­чае формула информации К. Шеннона имеет вид:

 

где I — количество информации, piвероятность появле­ния i-го сигнала, n — количество возможных сигналов.

Если сигналов всего два и они равновероятны, то фор­мула принимает вид:

I = -1/2log -1/2log -log 1/2·

 

В случае двоичных логарифмов log 1/2 = -1, а I получает­ся равным 1. Это значение принято в теории Шеннона в ка­честве единицы измерения информации и называется бит.

Отсюда — понимание информации как снятой неопре­деленности или как результата выбора из возможных аль­тернатив. Есть другие математические концепции, не свя­зывающие информацию с вероятностью. Например, в алго­ритмической теории информации А.Н. Колмогорова информация — это длина алгоритма, позволяющего преоб­разовать один объект в другой, т. е. мера сложности объекта.

Ограниченность математических теорий информации заключается в том, что они полностью абстрагируются от осмысленности и ценности информации для потребите­ля. Получается, что «совокупность 100 букв, выбранных случайным образом, фраза в 100 букв из газеты, из пьесы Шекспира или теоремы Эйнштейна имеют в точности одинаковое количество информации»[95].

В математических теориях понятие информации не свя­зано ни с формой, ни с содержанием сообщений (сигналов), передаваемых по каналу связи. Информация, точнее коли­чество информации, есть абстрактная фикция, умственный конструкт; она не существует в физической реальности, как не существуют логарифмы или мнимые числа.

С 60-х годов проблема информации привлекла внима­ние отечественных философов-материалистов, которые не могли примириться с тем, что информация — это идеаль­ная фикция и попытались «материализовать» информа­цию, найти ей место в материально едином мире. Наибо­лее авторитетными в нашей философской науке считают­ся так называемые атрибутивная и функциональная концепции. Обе концепции утверждают, что информация существует в объективной действительности, но расходят­ся по поводу наличия ее в неживой природе. Первая рассматривает информацию как атрибут, присущий всем уровням материи, т. е. превращает информацию в мате­риальный объект, а вторая — как функциональное каче­ство самоуправляемых и самоорганизуемых (кибернети­ческих) систем, превращая информацию в функцию. Рас­смотрим более подробно содержание этих концепций информации.


Поделиться:

Дата добавления: 2015-09-13; просмотров: 159; Мы поможем в написании вашей работы!; Нарушение авторских прав





lektsii.com - Лекции.Ком - 2014-2024 год. (0.006 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты