![]() КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
РОССИЙСКАЯ ФЕДЕРАЦИЯ. Визначимо кількість інформації , що надходить на керувальний орган з об'єкта керування
Визначимо кількість інформації У цьому випадку об’єкт керування є дискретним (за кількістю реалізацій сигналу) джерелом інформації, який цілком характеризується своїм ансамблем вигляду
Нехай алфавіти передавальних
За відсутності перешкод прийняте повідомлення цілком відповідає переданому, внаслідок чого невизначеність після прийому повідомлення буде знята, величина Припустимо, що відліки сигналу від об'єкта керування не залежать один від одного (імовірність появи кожного з рівнів сигналу i-го відліку не залежить від імовірності появи рівня сигналу при знятті попереднього відліку), за будь-який інтервал часу
Якщо в системі промислової автоматизації передбачено кілька різних джерел інформаційних сигналів (наприклад, декілька датчиків), то загальна кількість інформації, що надходить з цих датчиків, має властивість адитивності й становить
де Максимальна ентропія досягається при рівномірному законі розподілу відліків. У цьому випадку ідеальні повідомлення, які мають максимальну ентропію, оптимальні в тому розумінні, що в них на один рівень сигналу припадає найбільша кількість інформації. У реальних повідомленнях відліки найчастіше залежні між собою, внаслідок чого кількість інформації, що припадає на один символ (ентропія), буде меншою, ніж в ідеальних повідомленнях. Співвідношення реальних і оптимальних повідомлень можна виразити за допомогою коефіцієнта надмірності У загальному випадку
де Приклад. Керувальний пристрій виробляє 280 команд, які залежно від частоти їх використання можна розбити на три групи: Знайдемо ймовірність виникнення команди кожної з груп [2]:
Ентропія реальних та оптимальних команд
Надмірність команд
Вираз (5.20) вказує на те, що та сама кількість інформації
а оскільки Висновок: - зменшити надмірність можна шляхом збільшення ентропії повідомлень, що пов'язано з наближенням до рівноймовірного закону розподілу відліків; - збільшення надмірності призводить до збільшення часу передачі повідомлення, тому що - наявність надлишкових символів при такій самій кількості інформації, що міститься в повідомленні, підвищує правильність передачі повідомлення. Системний аналіз обов’язково включає дослідження ресурсів (наявних і необхідних), які будуть потрібні для вирішення проблеми, що аналізується. Під час побудови автоматизованих систем керування актуальним є вирішення питання про вибір складових системи. Інформаційні ресурси тут відіграють одну з головних ролей, а отже, можна використати розглянуті раніше підходи до оцінювання інформаційних характеристик системи. Наприклад, ємність запам'ятовувального пристрою (ЗП) можна оцінити кількістю інформації, що записується в ньому.
Слід зазначити, що значення теорії інформації виходить далеко за межі теорії зв'язку. Її поява привела до глибокого розуміння відкритих раніше закономірностей природи і в остаточному підсумку до того, що поняття інформації увійшло до філософських категорій. Основними характеристиками, які можна використати для опису й оцінювання статистичних властивостей сигналів і каналів інформаційних систем, є ентропія, кількість інформації, інформаційна надмірність, пропускна здатність. Разом з тим деякі фахівці критично оцінювали поширення цих методів на будь-які інформаційні процеси реального світу. Справа в тому, що шенонівська кількість інформації є характеристикою, яка лише з одного боку описує інформаційні відносини. Саме відповідність станів відіграє головну роль у технічних пристроях. Однак тут не проявляються такі властивості інформації, як зміст, корисність, тимчасовість, старіння, причинно-наслідкова спрямованість тощо – властивості, істотні для інформаційних відносин за участі живих організмів, людей, колективів. У зв’язку з цим пропонуються нові погляди і трактування поняття “інформація”, найбільш “радикальні” з яких розцінюють теорію інформації Шеннона “як глухий кут в інформатиці”. Зокрема, в роботі М.І. Сетрова зазначається, що “... статистична теорія інформації завела вчення про інформацію в глухий кут, з якого немає прямого виходу”. Критично зазначаючи, що “наука про інформацію має недоліки у хороших теоріях”, переглядається постановка проблеми, на стику філософії та інформації формується новий науковий напрямок – “філософія інформації”. А дослідження проблем використання інформації ведеться в різних напрямках: семіотика, теорія корисності, прийняття рішень і т.д.. Для системного аналізу теорія інформації має подвійне значення. По-перше, її конкретні методи й результати дають можливість провести кількісні дослідження інформаційних потоків у системі, що досліджується або проектується. Використання основних понять теорії інформації – невизначеності, ентропії, кількості інформації, надмірності, пропускної здатності – важливе для розуміння системних процесів, дає можливість здійснювати вимірювання і розрахунки. З іншого боку, для оцінювання точності перероблення інформації в обчислювальних системах ентропійні методи майже не використовуються. РОССИЙСКАЯ ФЕДЕРАЦИЯ
|