КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Количественная оценка информации и данных
Внимание к проблеме передачи и количественной оценки информации привлечено фундаментальными работами Н. Винера, К. Шеннона (США), которые положили начало теории информации. Значительный вклад в теорию информации внесли отечественные ученые О.М. Колмогоров, О.О. Харкевич, В.А. Котельников. Только принимая за основу новизну сведений, можно дать количественную оценку информации, поскольку новизна сведений является следствием неопределенности сведений об объекте, процесс, явление, а неопределенность поддается измерению. Например, сообщение имени победителя на выборах в губернаторы, если были всего два кандидата, несет меньшее количество информации по сравнению со случаем, если бы выборы происходили в конкурентной борьбе шести кандидатов. За единицу информации принимают количество информации, помещенное в выборе одного из двух равновероятных событий. Эта единица называется двоичной единицей, или битом (binary digit, bit). Если сообщение указывает на один из n равновероятных вариантов, то оно несет количество информации, ровную log2 n. Ту же формулу можно словесно выразить иначе: количество информации ровная степени, в которую необходимо свести 2, чтобы получить число равноправных вариантов выбора, то есть I2 = 16, где I = 4 биты. Измерение только количества информации не отвечает насущным потребностям современного общества ¾ необходимая мера ценности информации. Проблема определения ценности информации, исключительно актуальная в настоящее время, когда уже тяжело даже с помощью компьютеров обрабатывать могучие информационные потоки. Разработанные методы определения ценности информации призваны сыграть существенную роль в получении человеком необходимой информации. В информатике и вычислительной технике принята система представления данных двоичным кодом. Наименьшей единицей такого представления является бит. Байт - это группа взаимосвязанных битов. 1 байт = 8 битов. Одним байтом кодируется один символ текстовой информации. 1 Килобайт (Кб) = 210 байт = 1024 байт. Однако, везде, где это не принципиально, считают, что 1 Кб равен 1000 байт. Условно можно считать, что одна страница неформатированного машинописного текста = 2 Кб. 1 Мегабайт (Мб) = 1024 Кб. 1 Гигабайт (Гб) =1024 Мб. 1 Терабайт (Тб) = 1024 Гб. Необходимо понимать отличие, которое связано с количеством информации, которая хранится или передана, представленной в двоичных единицах, и количеством информации, заложенным в данном сообщении. С точки зрения теории информации, неопределенность, которая снимается в результате передачи одной страницы текста приблизительно с 2000 знаков, может составлять всего несколько битов (неинформативное сообщение), тогда как эта же страница при кодировке букв 8-элементными кодовыми комбинациями будет содержать 16 х 103 битов, хотя это не является количеством информации, заключенной в данном тексте. Под воздействием информационных технологий меняются формы экономической деятельности, виды и типы предприятий и организаций, характер взаимоотношений между работодателями и служащими, между персоналом и клиентами. Новые эффективные средства коммуникации позволяют обеспечить гибкую организацию предприятий, делая их более конкурентоспособными. Широкое применение находят такие формы трудовых отношений как работа дома, по совместительству и подряд. В процессе становления информационного общества необходимый постоянный диалог между социальными партнерами, поскольку речь идет о создании новой рабочей среды, в которой такое понятие как рабочее место неминуемо должно испытать существенное изменение.
|