КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Кодировка информации, байт.Стр 1 из 37Следующая ⇒ Цифровое представление информации Двоичная система счисления, бит. В повседневной жизни мы используем десятичную систему счисления. В ней имеется 10 цифр: 0, 1, 3, 4, 5, 6, 7, 8, 9. Самое древнее счетное устройство – это пальцы человека, от 10 пальцев и произошла десятичная система счисления. А в ЭВМ используется двоичный или машинный код, с использованием двух цифр: 1 и 0 (компьютер и ЭВМ это слова-синонимы). Для применения в ЭВМ десятичная система слишком сложна. Теоретически и экспериментально доказано, что самым эффективным является кодирование информации минимальным набором символов, а минимум – это двоичная система, цифры 0 и 1. В зависимости от поставленной задачи, двоичные цифры можно представлять по-разному: 0 или 1, + или –, True (истина) или False (ложь), черное или белое и т. п. Физически в компьютере все данные записаны в виде последовательности двух электрических сигналов. Одному приписывают значение 1, другому 0. Компьютер работает с очень длинными последовательностями из 0 и 1, ничего другого в ЭВМ не обрабатывается. Человек с такими длинными двоичными цепочками работать не в состоянии. На носителях данных это будет последовательность участков с двумя разными свойствами:для жесткого диска это будут разная намагниченность, для компакт-диска – разный цвет, для флэш-карты - разный электрический заряд и т.д. Наименьшей единицей измерения информации в двоичной системе являетсябит.Информации меньшей, чем один бит, в двоичной системе счисления не существует. Одним битом описывается выбор между двумя равновозможными состояниями: 0 или 1, + или –, True (истина) или False (ложь) и т. п. Главное условие – чтобы один вариант не имел никаких преимуществ перед другим. Кодировка информации, байт. С помощью бита можно описать два варианта. Но это очень мало. Представьте себе язык, в котором всего два слова. Для того чтобы «слов» появилось больше, нужно объединять биты в группу и называть (кодировать) что-то группой битов. При объединении двух битов получается 4 варианта: 00, 01, 10, 11. При объединении трех битов получается 8 вариантов: 000, 001, 010, 100, 011, 101, 110, 111. Математика (теория соединений) дает следующую формулу для подсчета числа вариантов размещения двоичных цифр (независимых кодов) в заданном числе групп (разрядов): N = 2M Где N – число независимых вариантов (кодов); М – число битов, объединенных в группу (число разрядов). В компьютере для кодировки используется стандартное объединение: 8 бит объединяются в один байт. В компьютере биты объединяются в байт для того же, для чего в человеческом языке буквы объединяются в слова: чтобы иметь возможность именовать объекты и явления окружающей среды. Только в отличие от естественных языков, компьютерное «слово» – байт имеет всегда одну и ту же, стандартную длину: 8 «букв» – бит. Объединение битов в байты настолько важно, что величина компьютерных файлов измеряется именно в байтах, а не в битах. А вот при передаче данных по сети смысл передаваемых сообщений не имеет значения. И скорость передачи данных измеряют в бит/сек. С помощью одного стандартного байта, или 8-разрядного кодирования можно получить 256 вариантов размещения нулей и единиц, поскольку 28 = 256 Для кодировки информации часто требуется существенно большее число независимых кодов. Технически это осуществляют объединением уже не битов, а байтов. Как исключение, используют полбайта, но не менее.
Таблица 1. Число независимых кодов, получающихся при объединении нескольких байт.
Производные от байта величины килобайт, мегабайт, гигабайт и т.д. Что значит приставка кило? Кило – единица измерения. которая в 1000 раз больше исходной Килограмм, километр и пр. Что значит мега? Мега – единица измерения, которая в миллион раз больше исходной (по-гречески мега – большой). Что значит гига? Гига – единица измерения, которая в миллиард раз больше исходной (по-гречески гига – гигантский). Следующая единица называется тера-, она в триллион раз больше исходной (по-гречески тера – чудовищный). 103, 106, 109, 1012 – разница между единицами, имеющими названия, всегда составляет 3 порядка. Однако у килобайта есть отличие от килограмма или километра. В 1 Кбт не 1000, а 210 байт или 1024 байт. 1 Кб = 1024 б. То есть, берут ближайшую к тысяче степень двойки. Потому что в компьютере используется двоичная система счисления. Если там допустить десятичную систему счисления, то очень сильно упадет производительность, и компьютер зависнет. Аналогично 1Мбт = 210 Кбт или 1024 Кбт или 1048576 бит; 1 Гбт = 210 Мбт. или 1024 Мбт или 1073741824 бит Обычно при умножении на 1000 об этой разнице в 2,4 процента забывают, но бывают случаи, когда это принципиально.
|