Студопедия

КАТЕГОРИИ:

АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника


РОССИЙСКАЯ ФЕДЕРАЦИЯ. Визначимо кількість інформації , що надходить на керувальний орган з об'єкта керування




 

Визначимо кількість інформації , що надходить на керувальний орган з об'єкта керування. Передача інформації від об’єкта керування до керувального органа здійснюється або за ініціативою самого об’єкта керування, або за запитом керувального органа. Окремі реалізації сигналу ( , де m – кількість значущих станів), що надходять з виходу об’єкта керування, є елементами повідомлення , причому кожному елементу повідомлення відповідає певний стан об’єкта керування.

У цьому випадку об’єкт керування є дискретним (за кількістю реалізацій сигналу) джерелом інформації, який цілком характеризується своїм ансамблем вигляду

.

Нехай алфавіти передавальних і приймальних елементів повідомлень ідентичні, а до прийому інформації відомі тільки ймовірності символів переданого повідомлення. Невизначеність повідомлення (ентропія ансамблю повідомлень) до його прийому можна охарактеризувати ентропією

. (5)

За відсутності перешкод прийняте повідомлення цілком відповідає переданому, внаслідок чого невизначеність після прийому повідомлення буде знята, величина дорівнюватиме нулю. При цьому кількість інформації відповідно до виразу (4) становить .

Припустимо, що відліки сигналу від об'єкта керування не залежать один від одного (імовірність появи кожного з рівнів сигналу i-го відліку не залежить від імовірності появи рівня сигналу при знятті попереднього відліку), за будь-який інтервал часу можна зняти тільки один відлік (елемент сигналу) і з рівною ймовірністю може з'явитися кожний з квантованих рівнів сигналу. Тоді ймовірність появи кожного з рівнів становитиме . Кількість інформації, що міститься в сигналі при знятті відліків можна розрахувати за виразом

. (6)

Якщо в системі промислової автоматизації передбачено кілька різних джерел інформаційних сигналів (наприклад, декілька датчиків), то загальна кількість інформації, що надходить з цих датчиків, має властивість адитивності й становить

, (7)

де – кількість інформації, що надходить від -го датчика ( ), – кількість датчиків, що працюють у складі системи промислової автоматизації.

Максимальна ентропія досягається при рівномірному законі розподілу відліків. У цьому випадку ідеальні повідомлення, які мають максимальну ентропію, оптимальні в тому розумінні, що в них на один рівень сигналу припадає найбільша кількість інформації. У реальних повідомленнях відліки найчастіше залежні між собою, внаслідок чого кількість інформації, що припадає на один символ (ентропія), буде меншою, ніж в ідеальних повідомленнях. Співвідношення реальних і оптимальних повідомлень можна виразити за допомогою коефіцієнта надмірності . Коефіцієнт надмірності показує, яка частина реального повідомлення, переданого як оптимальне, могла б не передаватися, якщо врахувати ймовірнісні характеристики повідомлення на приймальному кінці (частина зайвих відліків повідомлення).

У загальному випадку

, (8)

де – ентропія ідеального повідомлення; – ентропія реального повідомлення; і – кількість відліків оптимального і реального повідомлень.

Приклад. Керувальний пристрій виробляє 280 команд, які залежно від частоти їх використання можна розбити на три групи: , що становить 20 %; , що становить 50 %, і , що становить 30 % від загальної кількості використовуваних команд. Визначити надмірність, що міститься в командах керувального пристрою.

Знайдемо ймовірність виникнення команди кожної з груп [2]:

, і .

Ентропія реальних та оптимальних команд

біт,

біт.

Надмірність команд

.

Вираз (5.20) вказує на те, що та сама кількість інформації може міститися в повідомленні, що складається з відліків з ентропією або з відліків з ентропією :

, (9)

а оскільки , то .

Висновок:

- зменшити надмірність можна шляхом збільшення ентропії повідомлень, що пов'язано з наближенням до рівноймовірного закону розподілу відліків;

- збільшення надмірності призводить до збільшення часу передачі повідомлення, тому що ;

- наявність надлишкових символів при такій самій кількості інформації, що міститься в повідомленні, підвищує правильність передачі повідомлення.

Системний аналіз обов’язково включає дослідження ресурсів (наявних і необхідних), які будуть потрібні для вирішення проблеми, що аналізується. Під час побудови автоматизованих систем керування актуальним є вирішення питання про вибір складових системи. Інформаційні ресурси тут відіграють одну з головних ролей, а отже, можна використати розглянуті раніше підходи до оцінювання інформаційних характеристик системи. Наприклад, ємність запам'ятовувального пристрою (ЗП) можна оцінити кількістю інформації, що записується в ньому.

Примітка Зазначимо, що у рамках ентропійної парадигми в теорії інформації інформаційна ентропія (так само як і термодинамічна ентропія) розглядається як об'єктивна властивість фізичних систем. При цьому за Ллойдом інформація пов'язується із поняттям стану фізичної системи, а “... максимальна ентропія фізичної системи зумовлює кількість інформації, яку вона (система) може обробити. Енергія обмежує швидкість. Ентропія обмежує пам'ять”.

 

Слід зазначити, що значення теорії інформації виходить далеко за межі теорії зв'язку. Її поява привела до глибокого розуміння відкритих раніше закономірностей природи і в остаточному підсумку до того, що поняття інформації увійшло до філософських категорій.

Основними характеристиками, які можна використати для опису й оцінювання статистичних властивостей сигналів і каналів інформаційних систем, є ентропія, кількість інформації, інформаційна надмірність, пропускна здатність.

Разом з тим деякі фахівці критично оцінювали поширення цих методів на будь-які інформаційні процеси реального світу. Справа в тому, що шенонівська кількість інформації є характеристикою, яка лише з одного боку описує інформаційні відносини. Саме відповідність станів відіграє головну роль у технічних пристроях. Однак тут не проявляються такі властивості інформації, як зміст, корисність, тимчасовість, старіння, причинно-наслідкова спрямованість тощо – властивості, істотні для інформаційних відносин за участі живих організмів, людей, колективів. У зв’язку з цим пропонуються нові погляди і трактування поняття “інформація”, найбільш “радикальні” з яких розцінюють теорію інформації Шеннона “як глухий кут в інформатиці”. Зокрема, в роботі М.І. Сетрова зазначається, що “... статистична теорія інформації завела вчення про інформацію в глухий кут, з якого немає прямого виходу”. Критично зазначаючи, що “наука про інформацію має недоліки у хороших теоріях”, переглядається постановка проблеми, на стику філософії та інформації формується новий науковий напрямок – “філософія інформації”. А дослідження проблем використання інформації ведеться в різних напрямках: семіотика, теорія корисності, прийняття рішень і т.д..

Для системного аналізу теорія інформації має подвійне значення.

По-перше, її конкретні методи й результати дають можливість провести кількісні дослідження інформаційних потоків у системі, що досліджується або проектується. Використання основних понять теорії інформації – невизначеності, ентропії, кількості інформації, надмірності, пропускної здатності – важливе для розуміння системних процесів, дає можливість здійснювати вимірювання і розрахунки. З іншого боку, для оцінювання точності перероблення інформації в обчислювальних системах ентропійні методи майже не використовуються.

РОССИЙСКАЯ ФЕДЕРАЦИЯ


Поделиться:

Дата добавления: 2015-01-05; просмотров: 131; Мы поможем в написании вашей работы!; Нарушение авторских прав





lektsii.com - Лекции.Ком - 2014-2024 год. (0.006 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты