Метод количественной оценки информации: статистический, семантический, прагматический и структурный.

Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации.

Объём данных (V Д) понимается в техническом смысле этого слова как информационный объём сообщения или как объём памяти, необходимый для хранения сообщения без каких-либо изменений.

Информационный объём сообщения измеряется в битах и равен количеству двоичных цифр (“0” и “1”), которыми закодировано сообщение.

В компьютерной практике слово “бит” используется также как единица измерения объёма памяти. Ячейка памяти размером в 1 бит может находиться в двух состояниях (“включено” и “выключено”) и в неё может быть записана одна двоичная цифра (0 или 1). Понятно, что бит - слишком маленькая единица измерения информации, поэтому пользуются кратными ей величинами. Основной единицей измерения информации является байт . 1 байт равен 8 битам. В ячейку размером в 1 байт можно поместить 8 двоичных цифр, то есть в одном байте можно хранить 256 = 2 8 различных чисел. Для измерения ещё бóльших объёмов информации используются такие величины:

Пример 1. Важно иметь представление, сколько информации может вместить килобайт, мегабайт или гигабайт

· При двоичном кодировании текста каждая буква, знак препинания, пробел занимают 1 байт.

· На странице книги среднего формата примерно 50 строк, в каждой строке около 60 символов, таким образом, полностью заполненная страница имеет объём 50 x 60 = 3000 байт ≈3 Килобайта.

· Вся книга среднего формата занимает ≈ 0,5 Мегабайт. Один номер четырёхстраничной газеты - 150 Килобайт. Если человек говорит по 8 часов в день без перерыва, то за 70 лет он наговорит около 10 Гигабайт информации.

· Один чёрно-белый кадр (при 32 градациях яркости каждой точки) содержит примерно 300 Кб информации, цветной кадр содержит уже около 1 Мб информации.

· Телевизионный фильм продолжительностью 1,5 часа с частотой 25 кадров в секунду - 135 Гб.

Количество информацииI на синтаксическом уровне определяется через понятие энтропии системы.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе α. Мерой его неосведомленности о системе является функция H(α), называемая энтропией системы, которая в то же время служит и мерой неопределенности состояния системы.

После получения некоторого сообщения β получатель приобрел некоторую дополнительную информацию I β (α), уменьшившую его априорную неосведомленность так, что неопределенность состояния системы после получения сообщения β стала H β (α).

Тогда количество информации I β (α) ξ системе, полученной в сообщении β, определится как

I β (α)=H(α)-H β (α).

т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Если конечная неопределенность H β (α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации I β (α)=H(α). Иными словами, энтропия системы Н(а) может рассматриваться как мера недостающей информации.

Энтропия H(α) системы α, имеющей N возможных состояний, согласно формуле Шеннона, равна:

где P i - вероятность того, что система находится в i-м состоянии. Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны P i =, ее энтропия определяется соотношением

Пример 2. Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения

где N - число всевозможных отображаемых состояний;
m - основание системы счисления (разнообразие символов, применяемых в алфавите);
n -число разрядов (символов) в сообщении.

Допустим, что по каналу связи передается n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет N=m", то при равной вероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет

I = log N = n log m - формула Хартли.

Если в качестве основания логарифма принять m, то I = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных I=V Д, полученных по каналу связи.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит .

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Конец работы -

Эта тема принадлежит разделу:

Лекция 1. Введение. Понятие информатики

Структура информатики.. Информатика в широком смысле представляет собой единство разнообразных.. Информатику в узком смысле можно представить как состоящую из трех взаимосвязанных частей технических средств..

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ:

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Понятие информатики
Термин информатика возник в 60-х гг. во Франции для названия области, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин. Французский

Информационное общество
Информационная культура - умение целенаправленно работать с информацией и использовать для ее получения, обработки и передачи компьютерной информационную технологию, современные те

История развития рынка информационных услуг
С середины 50-х гг. началось формирование устойчивого рынка информационных услуг. Основными поставщиками информационных услуг являлись: информационные службы академических, профессиональных и научн

Информация, сообщения, сигналы
Информация наряду с материей и энергией является первичным понятием нашего мира и поэтому в строгом смысле не может быть определена. Можно лишь перечислить ее основные свойства, например такие как:

Семантическая мера информации
Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со сп

Прагматическая мера информации
Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цепи. Эта мера также величина относительная, обусловленная особенностями использования этой информации

Качественные характеристики информации
Возможность и эффективность использования информации обусловливаются такими основными ее потребительскими показателями качества, как репрезентативность, содержательность, достаточн

Кодирование текстовой информации
В настоящее время большая часть пользователей при помощи компьютера обрабатывает текстовую информацию, которая состоит из символов: букв, цифр, знаков препинания и др. Традиционно, для тог

Кодирование графической информации
Графическую информацию можно представлять в двух формах: аналоговой или дискретной. Живописное полотно, цвет которого изменяется непрерывно - это при

Растровое изображение
При помощи увеличительного стекла можно увидеть, что черно-белое графическое изображение, например из газеты, состоит из мельчайших точек, составляющих определенный узор - растр. Во Франции в 19 ве

Модель CMYK
В основе этой модели лежит субтрактивное цветовоспроизведение (характерное для отражающих объектов). Каждому из основных цветов ставится в соответствие дополнительный цвет (дополняющий основной до

Графические режимы
Различают несколько режимов представления цветной графики: · полноцветный (True Color) - для кодирования яркости каждой из составляющих используют по 256 значений (восемь двоичных разрядов

Векторное и фрактальное изображения
Векторное изображение - это графический объект, состоящий из элементарных отрезков и дуг. Базовым элементом изображения является линия. Как и любой объект, она обладает

Кодирование звуковой информации
На слух человек воспринимает упругие волны, имеющие частоту где-то в пределах от 16 Гц до 20 кГц (1 Гц - 1 колебание в секунду). В соответствии с этим упругие волны в любой среде, частоты которых л

Цифро-аналоговое и аналого-цифровое преобразование звуковой информации
Звуковые волны при помощи микрофона превращаются в аналоговый переменный электрический сигнал. Он попадает в аналого-цифровой преобразователь (АЦП) - устройство, которое переводит сигнал в цифровую

Параметры семплирования
Частота - количество измерений амплитуды аналогового сигнала в секунду. Если частота семплирования не будет более чем в два раза превышать частоту верхней грани

Сжатие информации
Кодирование делится на три большие группы - сжатие (эффективные коды), помехоустойчивое кодирование и криптография. Коды, предназначенные для сжатия информации, делятся, в свою очередь, на

Сжатие без потерь
Один из самых простых способов сжатия информации – групповое кодирование. В соответствии с этой схемой серии повторяющихся величин (например, число) заменяются единственной величин

Сжатие с потерей информации
используется для упаковки графических изображений. Этот метод основан на особенности человеческого восприятия изображений. Для человеческого глаза яркость более существенна, чем информация о цветов

Информационные революции
В истории развития цивилизации произошло несколько информационных революций - преобразований общественных отношений из-за кардинальных изменений в сфере обработки информации. Следствием этих преобр

Понятие информационной системы
Под системой понимают любой объект, который одновременно рассматривается и как единое целое, и как объединённая в интересах достижения поставленных целей совокупность разнородных элементов. Системы

Этапы развития информационных систем
История развития информационных систем и цели их использования на разных периодах представлены в таблице 1: Таблица 1. Изменение подхода к использованию информационных систем

Процессы в ИС
Процессы, обеспечивающие работу ИС любого значения, условно можно представить в виде схемы. ИС состоит из блоков: · ввод информации из внешних или внутренних источников;

Структура информационной системы
Общую структуру ИС можно рассматривать как совокупность подсистем независимо от сферы применения. Таким образом, структура любой ИС может быть представлена следующим образом.

Устаревание ИТ
Для ИТ является вполне естественным то, что они устаревают и заменяются новым. Пример. На смену технологии пакетной обработки программ на большой ЭВМ в вычислительном центре пришла техноло

Методология использования ИТ
Централизованная обработка информации на ЭВМ вычислительных центров была первой исторически сложившейся технологией. Создавались крупные вычислительные центры (ВЦ) коллективного использовани

Система команд некоторой ЭВМ – это совокупность команд, которую может выполнить данная ЭВМ
Последовательность команд, предложенную ЭВМ для исполнения, называют программой. Несмотря на разнообразие современных ЭВМ, их структура основана на общих логических

Основные блоки ПК и их значение
Рис. Структурная схема персонального компьютера Микропроцессор (МП). Это центральны

Шины расширений
Шина ISA (Industry Standard Architecture–архитектура промышленного стандарта) – 16-разрядная шина данных и 24-разрядная шина адреса, рабочая частота 16 МГц, но мож

Локальные шины
Локальные шины подключаются непосредственно к шине МП, работают на тактовой частоте МП и обеспечивают связь с некоторыми скоростными внешними по отношению к МП устройствами: основной и внешней памя

Назначение и типы МП
МП выполняет следующие функции: · чтение и дешифрацию команд из ОП; · чтение данных из ОП и регистров адаптеров ВУ; · прием и обработку запросов и команд от адаптеров на

Структура МП
Микропроцессоры состоят из двух частей: · операционной, содержащей УУ, АЛУ и МППС, за исключением нескольких адресных регистров; · интерфейсной, содержащей адресные регистры МПП,

Кэш-память
Кэш-память – высокоскоростная память, являющаяся буфером между ОП и МП и позволяющая увеличить скорость выполнения операций. Регистры кэш–памяти недоступны для пользователя; отсюда и название «кэш»

Физическая структура ОП
ОП содержит RAM и ROM, т. е. ОЗУ и ПЗУ. ОЗУ предназначено для хранения информации (программ и данных), непосредственно участвующей на текущем этапе функционирования ПК.

Логическая структура ОП
Распределение одномегабайтовой области ОЗУ приведено на рис. 3.4. Логическая структура всей ОП показана на рис. 3.5. Каждая ячейка памяти имеет свой уникальный (отличный от всех других) адрес.

Дисковые накопители внешней памяти
Устройства памяти на дисках относятся к устройствам с прямым доступом. Быстрый доступ к любой части диска обеспечивается: · быстрым вращением диска (гибкий – около 300 об/мин, жесткий – ок

Видеотерминальные устройства
Видеотерминал состоит из видеомонитора (дисплея) и видеоконтроллера (адаптера). Видеоконтроллеры входят в состав системного блока ПК (находятся на видеокарте, устанавливаемой в разъем материнской п

Принтеры
Принтеры (печатающие устройства) - это устройства вывода данных из ЭВМ, преобразующие информационные ASCII-коды в соответствующие им графические символы (буквы, цифры, знаки и т.п.) и фиксирующие э

Сканеры
Сканер - это устройство ввода в ЭВМ информации непосредственно с бумажного документа. Можно вводить тексты, схемы, рисунки, графики, фотографии и другую графическую информацию. Сканеры вес

СуперЭВМ
К суперЭВМ относятся мощные многопроцессорные вычислительные машины с быстродействием сотни миллионов - десятки миллиардов операций в секунду. Типовая модель суперЭВМ 2000 г имеет

Переносные компьютеры
Переносные компьютеры - быстроразвивающийся подкласс персональных компьютеров. По прогнозу специалистов, в 1998 г. более 50% пользователей будут использовать именно переносные машины, а к

Процесс передачи информации
Любая коммуникационная сеть должна включать следующие компоненты: передатчик, средства передачи, приемник. Передатчик – устройство, являющееся источником данных.

Формы взаимодействия абонентских ЭВМ
Существуют следующие основные формы взаимодействия абонентских ЭВМ. 1. Терминал-удаленный процесс – предусматривает обращение с терминала одной из абонентских ЭВМ к процес

Модель взаимодействия открытых систем
Многообразие производителей ВС сетей и сетевого ПО породило проблему объединения сетей различных архитектур. Для этого была разработана модель архитектуры открытых систем. Открытая

Протоколы компьютерной сети
При обмене информацией в сети каждый уровень модели взаимодействия открытых систем реагирует на свой заголовок, то есть происходит взаимодействие между однолинейными уровнями модели в различных або

Локальные вычислительные сети
Основное назначение любой компьютерной сети - представление информационных и вычислительных ресурсов подключенным к ней пользователям. С этой точки зрения ЛВС можно рассматривает как совок

Основные топологии ЛВС
Топология ЛВС – это усредненная геометрическая схема соединений узлов сети. ВС можно рассматривать как совокупность узлов – устройств, непосредственно подключенных к перед

Физическая передающая среда ЛВС
Физическая передающая среда ЛВС может быть представлена тремя типами. 1. Витая пара. Состоит из двух изолированных проводов, свитых между собой. Скручивание проводов уменьшает влияние внеш

Методы доступа к передающей среде
Метод доступа к передающей среде – метод, обеспечивающий выполнение совокупности правил, в соответствии с которыми узлы сети получают доступ к ресурсу сети. Существуют два основных класса

Способы объединения ЛВС
Причины применения различных способов объединения ЛВС следующие: исчерпаны технические возможности ЛВС, нужно создать еще одну ЛВС, подключив новых пользователей и объединив ее с уже существующей Л

Глобальная сеть Internet
Internet – это сеть, объединяющая отдельные сети. Логическая структура Internet представляет собой некое виртуальное объединение, имеющее свое виртуальное пространство. Основные яч

Системное программное обеспечение
Системное ПО – совокупность программ и программных комплексов для обеспечения работы компьютера и вычислительных сетей. Системное ПО направлено: · на создание операционной среды ф

Инструментарий технологии программирования
Инструментарий технологии программирования обеспечивает процесс разработки программ и включает специализированное ПО, которое является инструментальными средствами разработки. ПО данного класса при

Пакеты прикладных программ
Прикладное ПО служит программным инструментарием для решения функциональных задач и являются самым многочисленным классом ПО. В данный класс входят программные продукты, выполняющие обработку инфор

Защита программного обеспечения
Защита ПО преследует следующие цели: · ограничение несанкционированного доступа к программам или их преднамеренное разрушение и хищение; · исключение несанкционированного копирова

Тема 2. Основы представления и обработки информации в компьютере

Литература

1. Информатика в экономике: Учебное пособие/Под ред. Б.Е. Одинцова, А.Н. Романова. – М.: Вузовский учебник, 2008.

2. Информатика: Базовый курс: Учебное пособие/Под ред. С.В. Симоновича. – СПб.: Питер, 2009.

3. Информатика. Общий курс: Учебник/Соавт.: А.Н. Гуда, М.А. Бутакова, Н.М. Нечитайло, А.В. Чернов; Под общ. ред. В.И. Колесникова. – М.: Дашков и К, 2009.

4. Информатика для экономистов: Учебник/Под ред. Матюшка В.М. - М.: Инфра-М, 2006.

5. Экономическая информатика: Введение в экономический анализ информационных систем.- М.: ИНФРА-М, 2005.

Меры информации (синтаксическая, семантическая, прагматическая)

Для измерения информации могут применяться различные подходы, но наибольшее распространение получили статистический (вероятностный), семантический и прагматический методы.

Статистический (вероятностный) метод измерения информации был разработан К. Шенноном в 1948 году, который предложил количество информации рассматривать как меру неопределенности состояния системы, снимаемой в результате получения информации. Количественно выраженная неопределенность получила название энтропии. Если после получения некоторого сообщения наблюдатель приобрел дополнительную информацию о системе Х, то неопределенность уменьшилась. Дополнительно полученное количество информации определяется как:

где - дополнительное количество информации о системе Х , поступившее в форме сообщения;

Начальная неопределенность (энтропия) системы X ;

Конечная неопределенность (энтропия) системы X, наступившая после получения сообщения.

Если система X может находиться в одном из дискретных состояний, количество которых n , а вероятность нахождения системы в каждом из них равна и сумма вероятностей всех состояний равна единице, то энтропия вычисляется по формуле Шеннона:

где - энтропия системы Х;

а - основание логарифма, определяющее единицу измерения информации;

n – количество состояний (значений), в котором может находится система.

Энтропия величина положительная, а так как вероятности всегда меньше единицы, а их логарифм отрицательный, поэтому знак минус в формуле К.Шеннона делает энтропию положительной. Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.

Взаимосвязь информации и энтропии можно понимать следующим образом: получение информации (ее увеличение) одновременно означает уменьшение незнания или информационной неопределенности (энтропии)

Таким образом, статистический подход учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Количество информации достигает максимального значения, если события равновероятны.

Р. Хартли предложил следующую формулу для измерения информации:

I=log2n ,

где n - количество равновероятных событий;

I – мера информации в сообщении о наступлении одного из n событий

Измерение информации выражается в ее объёме. Чаще всего это касается объёма компьютерной памяти и объёма данных, передаваемых по каналам связи. За единицу принято такое количество информации, при котором неопределённость уменьшается в два раза, такая единица информации получила название бит .

Если в качестве основания логарифма в формуле Хартли используется натуральный логарифм (), то единицей измерения информации является нат (1 бит = ln2 ≈ 0,693 нат). Если в качестве основания логарифма используется число 3, то - трит , если 10, то - дит (хартли).

На практике чаще применяется более крупная единица - байт (byte ), равный восьми битам. Такая единица выбрана потому, что с ее помощью можно закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Кроме байтов информация измеряется полусловами (2 байта), словами (4 байта) и двойными словами (8 байт). Широко используются также еще более крупные единицы измерения информации:

1 Килобайт (Кбайт - kilobyte ) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт - megabyte ) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт - gigabyte ) = 1024 Мбайт = 230 байт.

1 Терабайт (Тбайт - terabyte ) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт - petabyte ) = 1024 Тбайт = 250 байт.

В 1980 году российский математик Ю. Манин предложил идею построения квантового компьютера, в связи с чем появилась такая единица информации как кубит (quantum bit, qubit) – «квантовый бит» – мера измерения объема памяти в теоретически возможном виде компьютера, использующем квантовые носители, например - спины электронов. Кубит может принимать не два различных значения («0» и «1»), а несколько, соответствующих нормированным комбинациям двух основных состояний спина, что дает большее число возможных сочетаний. Так, 32 кубита могут закодировать около 4 млрд состояний.

Семантический подход. Синтаксической меры не достаточно, если требуется определить не объем данных, а количество нужной в сообщении информации. В этом случае рассматривается семантический аспект, позволяющий определить содержательную сторону сведений.

Для измерения смыслового содержания информации можно воспользоваться тезаурусом ее получателя (потребителя). Идея тезаурусного метода была предложена Н. Винером и развита нашим отечественным ученым А.Ю. Шрейдером.

Тезаурусом называется совокупность сведений , которыми располагает получатель информации. Соотнесение тезауруса с содержанием поступившего сообщения позволяет выяснить, насколько оно снижает неопределенность..

Зависимость объема смысловой информации сообщения от тезауруса получателя

Согласно зависимости, представленной на графике, при отсутствии у пользователя какого-либо тезауруса (знаний о существе поступившего сообщении, то есть =0), или наличия такого тезауруса, который не изменился в результате поступления сообщения (), то объем семантической информации в нем равен нулю. Оптимальным будет такой тезаурус (), при котором объем семантической информации будет максимальным (). Например, семантической информации в поступившем сообщении на незнакомом иностранном языке будет ноль , но и такая же ситуация будет в том случае, если сообщение уже не является новостью, так как пользователю уже все известно.

Прагматическая мера информации определяет ее полезность в достижении потребителем своих целей. Для этого достаточно определить вероятность достижения цели до, и после получения сообщения и сравнить их. Ценность информации (по А.А. Харкевичу) рассчитывается по формуле:

где - вероятность достижения цели до получения сообщения;

Вероятность достижения цели поле получения сообщения;

Термин "информация " происходит от латинского "informatio ", что означает разъяснение, осведомление, изложение. С позиции материалистической философии информация есть отражение реального мира с помощью сведений (сообщений). Сообщение - это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.п. В широком смысле информация - это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

Информатика рассматривает информацию как концептуально связанные между собой сведения, данные, понятия, изменяющие наши представления о явлении или объекте окружающего мира. Наряду с информацией в информатике часто употребляется понятие “данные ”. Покажем в чем их отличие.

Данные могут рассматриваться как признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся. В том случае, если их используют для уменьшения неопределенности (получения сведений) о каком-либо объекте, данные превращаются в информацию. Данные существуют объективно и не зависят от человека и объема его знаний. Одни и те же данные для одного человека могут превратиться в информацию, т.к. они способствовали уменьшению неопределенности знаний человека, а для другого человека так и останутся данными.

Пример 1

Напишите на листе 10 номеров телефонов в виде последовательности 10-ти чисел и покажите их вашему сокурснику. Он воспримет эти цифры как данные, т.к. они не предоставляют ему никаких сведений.

Затем напротив каждого номера укажите название фирмы и род деятельности. Непонятные ранее цифры для вашего сокурсника обретут определенность и превратятся из данных в информацию, которую он в дальнейшем мог бы использовать.

Данные можно разделить на факты, правила и текущие сведения. Факты отвечают на вопрос "я знаю, что…". Примеры фактов:

  • Москва - столица России;
  • Дважды два равно четыре;
  • Квадрат гипотенузы равен сумме квадратов катетов.

Правила отвечают на вопрос "я знаю, как…". Примеры правил:

  • Правила вычисления корней квадратного уравнения;
  • Инструкция пользования банкоматом;
  • Правила дорожного движения.

Факты и правила представляют достаточно данные длительного использования. Они достаточно статичны, т.е. не изменчивы во времени.

Текущие сведения представляют данные, употребляемые в относительно короткий промежуток времени - курс доллара, цена товара, новости.

Одной из важнейших разновидностей информации является информация экономическая. Ее отличительная черта - связь с процессами управления коллективами людей, организацией. Экономическая информация сопровождает процессы производства, распределения, обмена и потребления материальных благ и услуг. Значительная часть ее связана с общественным производством и может быть названа производственной информацией.

При работе с информацией всегда имеется ее источник и потребитель (получатель). Пути и процессы, обеспечивающие передачу сообщений от источника информации к ее потребителю называются информационными коммуникациями.

1.2.2. Формы адекватности информации

Для потребителя информации очень важной характеристикой является ее адекватность .

В реальной жизни вряд ли возможна ситуация, когда вы сможете ориентироваться на полную адекватность информации. Всегда присутствует некоторая степень неопределенности. От степени адекватности информации реальному состоянию объекта или процесса зависит правильность принятия решений потребителем.

Пример 2

Вы успешно окончили школу и хотите продолжить образование по экономическому направлению. Поговорив с друзьями, вы узнаете, что подобную подготовку можно получить в разных вузах. В результате таких бесед вы получаете весьма разноречивые сведения, которые не позволяют вам принять решение в пользу того или иного варианта, т.е. полученная информация неадекватна реальному состоянию дел.

Для того чтобы получить более достоверные сведения, вы покупаете справочник для поступающих в вузы, из которого получаете исчерпывающую информацию. В этом случае можно говорить, что информация, полученная вами из справочника, адекватно отражает направления обучения в вузах и помогает вам определиться в окончательном выборе.

Адекватность информации может выражаться в трех формах: семантической, синтаксической, прагматической.

Синтаксическая адекватность

Синтаксическая адекватность отображает формально-структурные характеристики информации и не затрагивает смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т.п. Информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, т.к. при этом не имеет значения смысловая сторона. Эта форма способствует восприятию внешних структурных характеристик, т.е. синтаксической стороны информации.

Семантическая (смысловая) адекватность

Семантическая адекватность определяет степень соответствия образа объекта и самого объекта. Семантический аспект имеет в виду учет смыслового содержания информации. На этом уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи. В информатике устанавливаются смысловые связи между кодами представления информации. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматическая (потребительская) адекватность

Прагматическая адекватность отражает отношение информации и ее потребителя, соответствие информации цели управления, которое на ее основе реализуется. Проявляются прагматические свойства информации только при наличии единства информации (объекта), пользователя и цели управления. Прагматический аспект рассмотрения связан с ценностью, полезностью использования информации для выработки потребителем решения для достижения своей цели. С этой точки зрения анализируются потребительские свойства информации. Эта форма адекватности непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятельности системы.

1.2.3. Измерение информации

Для измерения информации вводятся два параметра:

Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности. Каждой форме адекватности соответствует своя мера количества информации и объема данных (рис. 1).

Рис. 1. Меры информации

Синтаксические меры информации

Синтаксические меры количества информации имеют дело с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес, и соответственно меняется единица измерения данных:

  • в двоичной системе счисления единица измерения - бит (binary digit - двоичный разряд). Наряду с этой единицей измерения широко используется укрупненная единица измерения “байт”, равная 8 бит.
  • в десятичной системе счисления единица измерения - дит (десятичный разряд).

Пример 3

Сообщение в двоичной системе в виде восьмиразрядного двоичного кода 10111011 имеет объем данных Сообщение в десятичной системе в виде шестиразрядного числа 275903имеетобъемданных

Определение количества информации I на синтаксическом уровне невозможно без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Рассмотрим это понятие.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе a . Мерой его неосведомленности о системе является функция Н(a), которая в тоже время служит и мерой неопределенности состояния системы. Эта мера получила название энтропия . Если потребитель имеет полную информацию о системе, то энтропия равна 0. Если потребитель имеет полную неопределенность о какой-то системе, то энтропия является положительным числом. По мере получения новой информации энтропия уменьшается.

После получения некоторого сообщения b получатель приобрел некоторую дополнительную информацию , уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения b ) неопределенность состояния системы стала .

Тогда количество информации о системе, полученное в сообщении b , определится как , т. е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Если конечная неопределенность обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации . Иными словами, энтропия системы Н(a) может рассматриваться как мера недостающей информации.

Энтропия системы Н(a) , имеющая N возможных состояний, согласно формуле Шеннона, равна

(1)

где - вероятность того, что система находится в i -м состоянии.

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны , ее энтропия определяется соотношением

(2)

Энтропия системы в двоичной системе счисления измеряется в битах. Исходя из формулы (2) можно сказать, что в системе в равновероятными состояниями 1 бит равен количеству информации, которая уменьшает неопределенность знаний в два раза.

Пример 4

Система, которая описывает процесс бросания монеты, имеет два равновероятных состояния. Если вам нужно угадать, какая сторона выпала сверху, то вы сначала имеете полную неопределенность о состоянии системы. Что бы получить информацию о состоянии системы, вы задаете вопрос: "Это орел?". Этим вопросом вы пытаетесь отбросить половину неизвестных состояний, т.е. уменьшить неопределенность в 2 раза. Какой бы ответ ни последовал "Да" или "Нет", вы получите полную ясность о состоянии системы. Таким образом, ответ на вопрос содержит 1 бит информации. Поскольку после 1-го вопроса наступила полня ясность, то энтропия системы равна 1. Этот же ответ дает формула (2), т.к. log2 2=1.

Пример 5.

Игра "Отгадай число". Вам надо угадать задуманное число от 1 до 100. В начале отгадывания вы имеете полную неопределенность о состоянии системы. При отгадывании надо задавать вопросы не хаотично, а так, чтобы ответ уменьшал неопреденность знаний в 2 раза, получая таким образом примерно 1 бит информации после каждого вопроса. Например, сначала надо задать вопрос: "Число больше 50?". "Правильный" подход к отгадыванию дает возможность угадать число за 6-7 вопросов. Если применить формулу (2), то получится, что энтропия системы равна log2 100=6,64.

Пример 6.

Алфавит племени "тумбо-юмбо" содержит 32 различных символа. Какова энтропия системы? Другими словами надо определить, какое количество информации несет в себе каждый символ.
Если считать, что каждый символ встречается в словах с равной вероятностью, то энтропия log2 32=5.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

Чем больше коэффициент информативности Y, тем меньше объем работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Семантическая мера информации

Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне наибольшее признание получила тезаурусная мера, предложенная Ю.И.Шнейдером. Он связывает семантические свойства информации прежде всего со способностью пользователя принимать поступившее сообщение. Для этого используется понятие "тезаурус пользователя ".

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 2. Рассмотрим два предельных случая, когда количество семантической информации равно 0:

Максимальное количество семантической информации потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом, когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения.

Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного.

о.

Рис. 2. Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса

При оценке семантического (содержательного) аспекта информации надо стремиться к согласованию величин S и Sp.

Относительной мерой количества семантической информации может служить коэффициент содержательности С , который определяется как отношение количества семантической информации к ее объему

Прагматическая мера информации

Прагматическая мера информации служит для определения ее полезности (ценности) для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция.

Пример 7

В экономической системе прагматические свойства (ценность) информации можно определить приростом экономического эффекта функционирования, достигнутым благодаря использованию этой информации для управления системой:

где - ценность информационного сообщения для системы управления ;

- априорный ожидаемый экономический эффект функционирования системы управления ;

Ожидаемый эффект функционирования системы при условии, что для управления будет использована информация, содержащаяся в сообщении .

Для сопоставления введенные меры информации представим в табл. 1.

Таблица 1. Единицы измерения информации и примеры

Меры информации

Единицы измерения

Примеры
(для компьютерной области)

Синтаксическая:

а)Шенноновский подход

б)компьютерный подход

а)степень уменьшения неопределенности

б)единицы представления информации

а) вероятность события

б) бит, байт, Кбайт и т.д.

Семантическая

а) тезаурус

б) экономические показатели

а)пакет прикладных программ, персональный компьютер, компьютерные сети и т.д.

б)рентабельность, производительность, коэффициент амортизации и т.д.

Прагматическая

Ценность использования

Емкость памяти, производительность компьютера, скорость передачи данных и т.д.

Денежное выражение

Время обработки информации и принятия решений

1.2.4. Свойства информации

Возможность и эффективность использования информации обуславливаются такими основными ее свойствами, как: репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость.
Репрезентативность информации связана с правильностью ее отбора и формирования с целью адекватного отражения свойств объекта.

Важнейшее значение здесь имеют:

  • правильность концепции, на базе которой сформулировано исходное понятие;
  • обоснованность отбора существенных признаков и связей отображаемого явления.

Нарушение репрезентативности информации приводит нередко к существенным ее погрешностям.

Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т. е. . С увеличением содержательности информации растет семантическая пропускная способность информационной системы, так как для получения одних и тех же сведений требуется преобразовать меньший объем данных.

Наряду с коэффициентом содержательности C , отражающим семантический аспект, можно использовать и коэффициент информативности, характеризующийся отношением количества синтаксической информации (по Шеннону) к объему данных .

Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав (набор показателей). Понятие полноты информации связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информация снижают эффективность принимаемых пользователем решений.

Доступность информации восприятию пользователя обеспечивается выполнением соответствующих процедур ее получения и преобразования. Например, в информационной системе информация преобразовывается к доступной и удобной для восприятия пользователя форме. Это достигается, в частности, и путем согласования ее семантической формы с тезаурусом пользователя.

Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.

Своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи.

Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п. Для информации, отображаемой цифровым кодом, известны четыре классификационных понятия точности:

  • формальная точность, измеряемая значением единицы младшего разряда числа;
  • реальная точность, определяемая значением единицы последнего разряда числа, верность которого гарантируется;
  • максимальная точность, которую можно получить в конкретных условиях функционирования системы;
  • необходимая точность, определяемая функциональным назначением показателя.

Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью. Измеряется достоверность информации доверительной вероятностью необходимой точности, т.е. вероятностью того, что отображаемое информацией значение параметра отличается от истинного значения этого параметра в пределах необходимой точности.

Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации, как и репрезентативность, обусловлены выбранной методикой ее отбора и формирования.

В заключение следует отметить, что такие параметры качества информации, как репрезентативность, содержательность, достаточность, доступность, устойчивость целиком определяются на методическом уровне разработки информационных систем. Параметры актуальности, своевременности, точности и достоверности обусловливаются в большей степени также на методическом уровне, однако, на их величину существенно влияет и характер функционирования системы, в первую очередь, ее надежность. При этом параметры актуальности и точности жестко связаны, соответственно, с параметрами своевременности и достоверности.

1.2.5. Общая характеристика информационных процессов

В природе и в обществе постоянно происходит взаимодействие объектов, связанные с изменением информации. Изменение информации происходит в результате разнообразных воздействий. Совокупность действий с информацией называют информационным процессом . Информационная деятельность состоит из разнообразных действий, которые выполняются с информацией. Среди них можно выделить действия, связанные с поиском, приемом, обработкой, передачей, хранением и защитой информации.

Обмен информацией между людьми, реакция человеческого организма на природные явления, взаимодействия человека и автоматизированной системы, - все это примеры информационных процессов.

Процесс сбора включает в себя:

  • измерение параметров;
  • регистрацию параметров в виде данных для последующей обработки;
  • преобразование данных в форму, используемую в системе (кодирование, приведение к нужному виду и ввод в систему обработки).

Для того, чтобы данные были измерены и зарегистрированы, необходимо наличие аппаратных средств, преобразующих сигналы в форму, воспринимаемую системой получателя (совместимую). Например, для регистрации температуры больного или влажности почвы для последующей их обработки нужны специальные датчики. Для записи этих данных на носитель или их передачи также нужны аппаратные средства.

Хранение информации необходимо для того, чтобы можно было многократно воспользоваться одними и теми же данными. Для обеспечения хранения информации необходимы апапратные средства записи данных на материальный носитель и чтения с носителя.

Процесс обмена информацией подразумевает наличие источника и потребителя (приемника) информации. Процесс выхода информации от источника называется передачей , а процесс получения информации потребителей называется приемом . Таким образом, процесс обмена подразумевает наличие двух взаимосвязанных процессов передачи-приема.

Процессы передачи и приема могут быть односторонними, двусторонними, а также поочередно двусторонними.

Пути и процессы, обеспечивающие передачу сообщений от источника информации к ее потребителю, называются информационными коммуникациями .

Рис. 3. Информационный процесс обмена информацией

Источниками и потребителями информации могут быть люди, животные, растения, автоматические устройства. От источника к потребителю информация передается в форме сообщений. Прием и передача сообщений осуществляется в виде сигналов. Сигнал - это изменение физической среды, отображающее сообщение. Сигнал может быть звуковой, световой, обонятельный (запах), электрический, электромагнитный и т.д.

Кодирующее устройство преобразует сообщение из вида, понятного источнику, в сигналы физической среды, по которой передается сообщение. Декодирующее устройство выполняет обратную операцию и преобразует сигналы среды к виду, понятному потребителю.

Материальными носителями передаваемых сообщений могут быть природные химические соединения (ощущаемые на запах и на вкус), механические колебания воздуха или мембраны телефона (при передаче звука), колебания электрического тока в проводах (телеграф, телефон), электромагнитные волны оптического диапазона (воспринимаемые человеческим глазом), электромагнитные волны радиодиапазона (для передачи звука и телеизображения).

В организме человека и животных информация передается по нервной системе в виде слабых электрических токов или с помощью особых химических соединений (гормонов), переносимых кровью.

Каналы связи характеризуются пропускной способностью - количеством данных, переданных в единицу времени. Она зависит от скорости преобразования информации в приемо-передающих устройствах, и от физических свойств самих каналов. Пропускная способность определяется возможностями физической природы канала.

В вычислительной технике информационные процессы автоматизированы и используют аппаратные и программные методы, приводящие сигналы в совместимую форму.

На всех этапах обработки и передачи необходимо передающее и принимающее устройства, имеющие соответствующие совместимые аппаратные средства. Данные после получения могут быть зафиксированы на носителях информации для хранения до следующего процесса.

Следовательно, информационный процесс может состоять из серии преобразований данных и их сохранения в новой форме.
Информационные процессы в современном мире имеют тенденцию автоматизации на компьютере. Появляется все большее количество информационных систем, которые реализуют информационные процессы, и удовлетворяют запросы потребителей информации.

Хранение данных в компьютерных каталогах позволяет быстро копировать информацию, размещать на разных носителях, выдавать пользователям в разной форме. Претерпевают изменения и процессы передачи информации на большие расстояния. Человечество постепенно переходит на связь через глобальные сети.

Обработка - это процесс преобразования информации из одного вида в другой.

Чтобы осуществить обработку, необходимы следующие условия:

  • исходные данные - сырье для обработки;
  • среда и инструменты обработки;
  • технология, которая определяет правила (способы) преобразования данных

Процесс обработки завершается получением новой информации (по форме, по содержанию, по смыслу), которую называют результирующей информацией.

Процесс обработки информации напоминает процесс материального производства. При производстве товаров необходимо сырье (исходные материалы), среда и инструменты производства (цех и станки), технология изготовления товара.
Все описанные выше отдельные стороны информационного процесса тесно взаимосвязаны.

При выполнении информационного процесса на компьютере выделяют четыре группы действий с данными - ввод, хранение, обработку и вывод.

Обработка предполагает преобразование данные в некоторой программной среде. Каждая программная среда обладает набором инструментов, с помощью которых можно опреровать данныи. Чтобы осуществить обработку надо знать технологию работы в среде, т.е. технологию работы с инструментами среды.

Чтобы обработка стала возможной надо данные ввести, т.е. передать от пользователя в компьютер. Для этого предназначены разнообразные устройства ввода.

Чтобы данные не пропали, и их можно было многократно использовать, осуществляется запись данных на разнообразные устройства хранения информациию.

Чтобы увидеть результаты обработки информации, ее надо вывести, т.е. передать из компьютера пользователю, с помощью разнообразных устройств вывода.

1.2.6. Кодирование числовой информации

Общие понятия

Система кодирования применяется для замены названия объекта на условное обозначение (код) с целью обеспечения удобной и более эффективной обработки информации.

Система кодирования - совокупность правил кодового обозначения объектов.

Код строится на базе алфавита, состоящего из букв, цифр и других символов. Код характеризуется:

  • длиной - число позиций в коде;
  • структурой - порядок расположения в коде символов, используемых для обозначения классификационного признака.

Процедура присвоения объекту кодового обозначения называется кодированием.

Представление о системах счисления

Числа могут быть представлены в различных системах счисления.

Для записи чисел могут использоваться не только цифры, но и буквы (например, запись римских цифр - XXI, MCMXCIX). В зависимости от способа изображения чисел системы счисления делятся на позиционные и непозиционные .

В позиционной системе счисления количественное значение каждой цифры числа зависит от того, в каком месте (позиции или разряде) записана та или иная цифра этого числа. Позиции числа нумеруют от 0 справа налево. Например, меняя позицию цифры 2 в десятичной системе счисления, можно записать разные по величине десятичные числа, например, 2 (цифра 2 стоит на 0-й позиции и означает две единицы); 20 (цифра 2 стоит на 1-й позиции и означает два десятка); 2000 (цифра 2 стоит на 3-й позиции и означает две тысячи); 0,02 и т.д. Перемещение положения цифры в соседний разряд увеличивает (уменьшает) ее значение в 10 раз.

В непозиционной системе счисления цифры не изменяют своего количественного значения при изменении их расположения (позиции) в числе. Примером непозиционной системы может служить римская система, в которой независимо от местоположения, одинаковый символ имеет неизменное значение (например, символ X в числе XVX означает десять, где бы он ни стоял).

Количество (p) различных символов, используемых для изображения числа в позиционной системе счисления, называется основанием системы счисления. Значения цифр лежат в пределах от 0 до p-1.

В десятичной системе счисления p=10 и для записи любого числа используется 10 цифр: 0, 1, 2, ... 9.

Для компьютера наиболее подходящей и надежной оказалась двоичная система счисления (p=2), в которой для представления чисел используются последовательности цифр - 0 и 1. Кроме того, для работы компьютера оказалось удобным использовать представление информации с помощью еще двух систем счисления:

  • восьмеричной (p=8, т.е. любое число представляется с помощью 8 цифр - 0,1, 2,...7);
  • шестнадцатеричной (p=16, используемые символы - цифры - 0, 1, 2, ..., 9 и буквы - A, B, C, D, E, F, заменяющие числа 10,11, 12, 13, 14, 15 соответственно).

Соответствие кодов десятичной, двоичной и шестнадцатеричной систем счисления представлено в таблице 2.

Таблица 2. Соответствие кодов десятичной, двоичной и шестнадцатеричной систем счисления

Десятичная

Двоичная

Шестнадцатеричная

В общем случае любое число N в позиционной системе счисления можно представить в виде:

где k - количество разрядов в целой частности числа N;

- (k –1)-ая цифра целой части числа N, записанного в системе счисления с основанием p;

N-ая цифра дробной части числа N, записанного в системе счисления с основанием p;

n - количество разрядов в дробной части числа N;

Максимальное число, которое может быть представлено в к разрядах .

Минимальное число, которое может быть представлено в n разрядах .

Имея в целой части числа к разрядов, а в дробной n разрядов, можно записать всего разных чисел.

С учетом этих обозначений запись числа N в любой позиционной системе счисления с основанием p имеет вид:

Пример 8

При p = 10 запись числа в десятичной системе счисления – 2466,675 10 , где k = 4, n = 3.

При p = 2 запись числа в двоичной системе – 1011,112 , где k = 4, n = 2.

Двоичная и шестнадцатеричная системы счисления обладают такими же свойствами, что и десятичная, только для представления чисел используется не 10 цифр, а всего две в первом случае и 10 цифр и 6 букв во втором случае. Соответственно и разряд числа называют не десятичным, а двоичным или шестнадцатеричным. Основные законы выполнения арифметических действий в двоичной и шестнадцатеричной системах счисления соблюдаются точно также как и в десятичной.

Для сравнения рассмотрим представление чисел в разных системах счисления, как сумму слагаемых, в которых учтен вес каждого разряда.

Пример 9

В десятичной системе счисления

В двоичной системе счисления

В шестнадцатеричной системе счисления

Существуют правила перевода чисел из одной системы счисления в другую.

Формы представления чисел в компьютере

В компьютерах применяются две формы представления двоичных чисел:

  • естественная форма или форма с фиксированной запятой (точкой);
  • нормальная форма или форма с плавающей запятой (точкой).

В естественной форме (с фиксированной запятой) все числа изображаются в виде последовательности цифр с постоянным для всех чисел положением запятой, отделяющей целую часть от дробной.

Пример 10

В десятичной системе счисления имеются 5 разрядов в целой части числа и 5 разрядов в дробной части числа. Числа, записанные в такую разрядную сетку, например, имеют вид: +00564,24891; -10304,00674 и т.д. Максимальное число, которое можно представить в такой разрядной сетке будет 99999,99999.

Форма представления чисел с фиксированной запятой наиболее проста, но имеет ограниченный диапазон представления чисел. Если в результате операции получится число, выходящее за допустимый диапазон, происходит переполнение разрядной сетки, и дальнейшие вычисления теряют смысл. Поэтому в современных компьютерах такая форма представления используется обычно только для целых чисел .

Если используется система счисления с основанием p при наличии k разрядов в целой части и n разрядов в дробной части числа, то диапазон значащих чисел N при их представлении в форме с фиксированной запятой, определяется соотношением:

Пример 11

При p =2, k =10, n =6 диапазон значащих чисел будет определяться следующим соотношением:

В нормальной форме (с плавающей запятой) каждое число изображается в виде двух групп цифр. Первая группа цифр называется мантиссой , вторая – порядком , причем абсолютная величина мантиссы должна быть меньше 1, а порядок – целым числом. В общем виде число в форме с плавающей запятой может быть представлено в виде:

где M – мантисса числа (| M | < 1);

r – порядок числа (r - целое число);

p – основание системы счисления.

Пример 12

Приведенные в примере 3 числа +00564,24891; -10304,00674 будут представлены в форме с плавающей запятой следующими выражениями:

Нормальная форма представления имеет огромный диапазон отображения чисел и является основной в современных компьютерах. Знак числа кодируется двоичной цифрой. При этом код 0 означает знак «+», код 1 - знак «-».

Если используется система счисления с основанием p при наличии m разрядов у мантиссы и s разрядов у порядка (без учета знаковых разрядов порядка и мантиссы), то диапазон значащих чисел N при их представлении в нормальной форме, определяется соотношением:

Пример 13

При p =2, m =10, s =6 диапазон значащих чисел будет определяться примерно от до

Форматы представления чисел в компьютере

Последовательность нескольких битов или байтов часто называют полем данных. Биты в числе (в слове, в поле и т.п.) нумеруются справа налево, начиная с 0-го разряда.

В компьютере могут обрабатываться поля постоянной и переменной длины.

Поля постоянной длины:

слово – 2 байта

полуслово – 1 байт

двойное слово – 4 байта

расширенное слово – 8 байт.

Поля переменной длины могут иметь размер от 0 до 256 байт, но обязательно равный целому числу байтов.

Числа с фиксированной запятой чаще всего имеют формат слова и полуслова. Числа с плавающей запятой – формат двойного и расширенного слова.

Пример 14

Числу –193 в десятичной системе соответствует в двоичной системе число –11000001. Представим это число в двух форматах.

Для естественной формы представления этого числа (с фиксированной запятой) потребуется слово емкостью 2 байта. (таблица 3).

Таблица 3

Знак числа

Абсолютная величина числа

№ разряда

В нормальной форме число -19310 в десятичной записи имеет вид -0,193х103, а в двоичной записи это же число имеет вид -0,11000001х21000. Мантисса, обозначающая число 193, записанная в двоичной форме имеет 8 позиций. Таким образом, порядок числа равен 8, поэтому степень числа 2 равна 8 (10002). Число 8 также записано в двоичной форме. Для нормальной формы представления этого числа (с плавающей запятой) потребуется двойное слово, т.е. 4 байта (таблица 4).

Таблица 4

Знак числа

Порядок Мантисса

№ разряда

Знак числа записывается в крайнем левом 31-м бите. На запись порядка числа отводится 7 бит (с 24-го по 30-й). В этих позициях записано число 8 в двоичной форме. Для записи мантиссы отводится 24 бита (с 0-го по 23-й). Мантисса записывается слева направо.

Перевод из любой позиционной системы в десятичную систему счисления

Перевод из любой позиционной системы счисления, например используемой в компьютере с основанием p = 2; 8; 16, в десятичную систему счисления производится по формуле (1).

Пример 15

Перевести в десятичную систему счисления двоичное число . Подставляя в формулу перевода (1) соответствующие двоичные разряды исходного числа, найдем:

Пример 16

Пример 17

Перевести число в десятичную систему счисления.

При переводе учтено, что в 16-ой системе счисления буква А заменяет значение 10.

Перевод целого числа из десятичной в другую позиционную систему счисления

Рассмотрим обратный перевод - из десятичной системы в другую систему счисления. Для простоты ограничимся переводом только целых чисел.

Общее правило перевода следующее: необходимо разделить число N на p. Полученный при этом остаток даст цифру, стоящую в 1-ом разряде p-ричной записи числа N. Затем полученное частное снова разделить на p и снова запомнить полученный остаток - это будет цифра второго разряда и т.д. Такое последовательное деление продолжается до тех пор, пока частное не окажется меньше, чем основание системы счисления - p. Это последнее частное и будет цифрой старшего разряда.

Пример 18

Перевести десятичное число N = 20 (p = 10) в двоичную систему счисления (p = 2).

Действуем по указанному выше правилу (рис. 4). Первое деление дает частное 10 и остаток, равный 0. Это цифра младшего разряда. Второе деление дает частное – 5 и остаток – 1. Третье деление дает частное – 2 и остаток – 0. Деление продолжается, пока частное не равно нулю. Пятое частное – 0. Остаток – 1. Этот остаток – старшая цифра полученного двоичного числа. На этом деление заканчивается. Теперь записываем результат, начиная с последнего частного, затем переписываем все остатки. В итоге получим:

Рис. 4. Перевод десятичного числа в двоичное методом деления

1.2.7. Кодирование текстовой данных

Текстовые данные представляют собой совокупность алфавитных, цифровых и специальных символов, зафиксированных на некотором физическом носителе (бумага, магнитный диск, изображение на экране дисплея).

Нажатие клавиши на клавиатуре приводит к тому, что сигнал посылается в компьютер в виде двоичного числа, которое хранится в кодовой таблице. Кодовая таблица – это внутреннее представление символов в компьютере. Во всем мире в качестве стандарта принята таблица ASCII (American Standard Code for Informational Interchange – Американский стандартный код информационного обмена).

Для хранения двоичного кода одного символа выделен 1байт=8 бит. Учитывая, что каждый бит принимает значение 1 или 0, количество возможный сочетаний единиц и нулей равно . Значит, с помощью 1 байта можно получить 256 разных двоичных кодовых комбинаций и отобразить с их помощью 256 различных символа. Эти коды и составляют таблицу ASCII. Для сокращения записей и удобства пользования этими кодами символов в таблице используют шестнадцатеричную систему счисления, состоящую из 16 символов – 10-ти цифр и 6-ти латинских букв: A, B, C, D, E, F. При кодировании символов сначала записывается цифра столбца, а затем строки, на пересечении которых находится данный символ.

Кодирование каждого символа 1-м байтом связано с расчетом энтропии системы символов (см. пример 6). При разработке системы кодирования символов учли, что необходимо закодировать 26 строчных букв латинского (английского) алфавита и 26 прописных букв, цифры от 0 до 9, знаки препинания, специальные символы, арифметические знаки. Это так называемые, международные, символы. Получается около 128 символов. Еще 128 кодов отводится для кодирования символов национального алфавита и некоторых дополнительных знаков. В русском языке это 33 строчных и 33 прописных буквы. Общее число символов, подлежащих кодированию больше и меньше . В предположении, что все символы встречаются с равной вероятностью, то энтропия системы будет 7 < H < 8. Поскольку для кодирования используется целое число бит, то 7 бит будет мало. Поэтому для кодирования каждого символа используется по 8 бит. Как было сказано выше, 8 бит позволяют закодировать символов. Это число дало название единице измерения объема данный «байт».

Пример 19

Латинская буква S в таблице ASCII представлена шестнадцатеричным кодом – 53. При нажатии на клавиатуре буквы S, в память компьютера записывается его эквивалент – двоичный код 01010011, который получается путем замены каждой шестнадцатеричной цифры на ее двоичный эквивалент.

В данном случае цифра 5 заменена кодом 0101, а цифра 3 – кодом 0011. При выводе буквы S на экран в компьютере происходит декодирование – по этому двоичному коду строится его изображение.

Обратите внимание! Любой символ в таблице ASCII кодируется с помощью 8-ми двоичных разрядов или 2-х шестнадцатеричных разрядов (1 разряд представлен 4-мя битами).

Таблица (рис. 5) отображает кодировку символов в шестнадцатеричной системе счисления. Первые 32 символа являются управляющими и предназначены, в основном, для передачи команд управления. Они могут меняться в зависимости от программных и аппаратных средств. Вторая половина кодовой таблицы (от 128 до 255) не определена американским стандартом и предназначена для национальных символов, псевдографических и некоторых математических символов. В разных странах могут использоваться различные варианты второй половины кодовой таблицы для кодирования букв своего алфавита.

Обратите внимание! Цифры кодируются по стандарту ASCII в двух случаях – при вводе-выводе и, если они встречаются в тексте.

Для сравнения рассмотрим число 45 для двух вариантов кодирования.

При использовании в тексте это число потребует для своего представления 2 байта, т.к. каждая цифра будет представлена своим кодом в соответствии с таблицей ASCII (рис. 4). В шестнадцатеричной системе код будет 34 35, в двоичной системе – 00110100 00110101, что потребует 2 байта.

Рис. 5. Таблица кодов ASCII (фрагмент)

1.2.8. Кодирование графической информации

Представление о цвете в компьютере

Графические данные – это различного рода графики, диаграммы, схемы, рисунки и т.д. Любое графическое изображение можно представить как некоторую композицию цветовых областей. Цвет определяет свойство видимых предметов, непосредственно воспринимаемое глазом.

В компьютерной промышленности в основе отображения любого цвета лежат три так называемых первичных цвета: синий, зеленый, красный. Для их обозначения используется аббревиатура RGB (Red - Green - Blue).

Все цвета, встречающиеся в природе, можно создавать, смешивая и варьируя интенсивность (яркость) этих трех цветов. Смесь, состоящая из 100% каждого цвета, дает белый цвет. Смесь 0% от каждого цвета дает черный цвет.

Искусство воспроизведения цвета в компьютере путем сложения в различных пропорциях трех первичных RGB цветов называется аддитивным смешением.

Человеческий глаз может воспринимать огромное количество цветов. Монитор и принтер в состоянии воспроизводить лишь ограниченную часть этого диапазона.

В связи с необходимостью описания различных физических процессов воспроизведения цвета в компьютере, были разработаны различные цветовые модели. Диапазон воспроизводимых цветов и способ их отображения для монитора и принтера различны и зависит от используемых цветовых моделей.

Цветовые модели описываются с помощью математического аппарата и позволяют представить различные цветовые оттенки путем смешивания нескольких основных цветов.

Цвета на экране монитора могут выглядеть иначе, чем при их выводе на печать. Это отличие обусловлено тем, что для вывода на печать применяются иные, нежели для монитора цветовые модели.

Среди цветовых моделей наиболее известны модели RGB, CMYK, HSB, LAB.

Модель RGB

Модель RGB называют аддитивной, поскольку по мере увеличения яркости составляющих цветов увеличивается яркость результирующего цвета.

Цветовая модель RGB обычно используется для описания цветов, отображаемых мониторами, получаемых сканерами и цветовыми фильтрами. Для отображения цветовой гаммы на печатающем устройстве она не используется.

Цвет в модели RGВ представляется как сумма трех базовых цветов – красного (Red), зеленого (Green) и синего (Blue) (рис. 6). RGB хорошо воспроизводит цвета в диапазоне от синего до зеленого и несколько хуже – желтые и оранжевые оттенки.

В модели RGB каждый базовый цвет характеризуется яркостью (интенсивностью), которая может принимать 256 дискретных значений от 0 до 255. Поэтому можно смешивать цвета в различных пропорциях, варьируя яркость каждой составляющей. Таким образом, можно получить

256x256x256 = 16 777 216 цветов.

Каждому цвету можно сопоставить код, который содержит значения яркости трех составляющих. Используются десятичное и шестнадцатеричное представления кода.

Рис. 6. Комбинации базовых цветов модели RGB

Десятичное представление – это три группы из трех десятичных чисел, разделенных запятыми, например, 245,155,212. Первое число соответствует яркости красной составляющей, второе – зеленой, а третье – синей.

Код цвета в шестнадцатеричном представлении имеет вид 0хХХХХХХ. Префикс 0х указывает на то, что мы имеем дело с шестнадцатеричным числом. За префиксом следуют шесть шестнадцатеричных цифр (0, 1, 2,...,9, А, В, С, D, E, F). Первые две цифры – шестнадцатеричное число, представляющее яркость красной составляющей, вторая и третья пары соответствуют яркости зеленой и синей составляющих.

Пример 20

Максимальная яркость базовых цветов позволяет отобразить белый цвет. Этому соответствует в десятичном представлении код 255,255,255, а в шестнадцатеричном представлении – код 0xFFFFFF.

Минимальная яркость (или) соответствует черному цвету. Этому соответствует в десятичном представлении код 0,0,0, а в шестнадцатеричном представлении код 0x000000.

Смешение красного, зеленого и синего цветов с различными, но одинаковыми яркостями дает шкалу из 256 оттенков (градаций) серого цвета – от черного до белого. Изображения в оттенках серого еще называют полутоновыми изображениями.

Поскольку яркость каждой из базовых составляющих цвета может принимать только 256 целочисленных значений, каждое значение можно представить 8-разрядным двоичным числом (последовательностью из 8 нулей и единиц, () т.е. одним байтом. Таким образом, в модели RGB информация о каждом цвете требует 3 байта (по одному байту на каждый базовый цвет) или 24 бита памяти для хранения. Поскольку все оттенки серого цвета образуются смешением трех составляющих одинаковой яркости, то для представления любого из 256 оттенков серого требуется лишь 1 байт.

Модель CMYK

Модель CMYK описывает смешение красок на печатающем устройстве. В этой модели используются три базовых цвета: голубой (Cyan), пурпурный (Magenta) и желтый (Yellow). Кроме того, применяется черный цвет (blacK) (рис. 7). Прописные буквы, выделенные в словах, составляют аббревиатуру палитры.

Рис. 7. Комбинации базовых цветов модели CMYK

Каждый из трех базовых цветов модели CMYK получается в результате вычитания из белого цвета одного из базовых цветов модели RGB. Так, например, голубой (cyan) получается вычитанием красного из белого, а желтый (yellow) – вычитанием синего. Напомним, что в модели RGB белый цвет представляется как смесь красного, зеленого и синего максимальной яркости. Тогда базовые цвета модели CMYK можно представить с помощью формул вычитания базовых цветов модели RGB следующим образом:

Cyan = RGB - R = GB = (0,255,255)

Yellow = RGB - В = RG = (255,255,0)

Magenta = RGB - G = RB = (255,0,255)

В связи с тем, что базовые цвета CMYK получаются путем вычитания из белого базовых цветов RGB, их называют субтрактивными.

Базовые цвета модели CMYK являются яркими цветами и не вполне годятся для воспроизведения темных цветов. Так, при их смешивании на практике получается не чисто черный, а грязно-коричневый цвет. Поэтому в цветовую модель CMYK включен еще и чистый черный цвет, который используется для создания темных оттенков, а также для печати черных элементов изображения.

Краски субтрактивной модели CMYK не являются столь чистыми, как цвета аддитивной модели RGB.

Не все цвета модели CMYK могут быть представлены в модели RGB и наоборот. В количественном отношении цветовой диапазон CMYK меньше цветового диапазона RGB. Это обстоятельство имеет принципиальное значение, а не обусловлено только физическими особенностями монитора или печатающего устройства.

Модель HSB

Модель HSB основана на трех параметрах: Н – оттенок или тон (Hue), S – насыщенность (Saturation) и В – яркость (Brightness). Она является вариантом модели RGB и также основана на использовании базовых цветов.

Из всех используемых в настоящее время моделей эта модель наиболее точно соответствует способу восприятия цвета человеческим глазом. Она позволяет описывать цвета интуитивно ясным способом. Часто используются художниками.

В модели HSB насыщенность характеризует чистоту цвета. Нулевая насыщенность соответствует серому цвету, а максимальная насыщенность – наиболее яркому варианту данного цвета. Яркость понимается как степень освещенности.

Графически модель HSB можно представить в виде кольца, вдоль которого располагаются оттенки цветов (рис. 8).

Рис. 8. Графическое представление модели HSB

Модель Lab

Модель Lab используется для печатающего устройства. Она более совершенна, чем модель CMYK, где не хватает очень многих оттенков. Графическое представление модели Lab представлено на рис. 9.

Рис. 9. Графическое представление модели Lab

Модель Lab основана на трех параметрах: L - яркость (Luminosity) и два цветовых параметра - а и b. Параметр а содержит цвета от темно-зеленого через серый до ярко-розового. Параметр b содержит цвета от светло-синего через серый до ярко-желтого.

Кодирование графической информации

Графические изображения хранятся в файлах графических форматов.

Изображения представляют собой совокупность графических элементов (picture element) или, сокращенно, пикселов (pixel). Для того, чтобы описать изображение, необходимо определить способ описания одного пиксела.

Описание цвета пиксела является, по существу, кодом цвета в соответствии с той или иной цветовой моделью. Цвет пиксела описывается несколькими числами. Эти числа еще называют каналами. В случае моделей RGB, CMYK и Lab эти каналы называют также цветовыми каналами.

В компьютере количество бит, отводимое на каждый пиксел для представления цветовой информации, называют цветовой глубиной (color depth) или битовой глубиной цвета (bit depth). Цветовая глубина определяет, как много цветов может быть представлено пикселом. Чем больше цветовая глубина, тем больше объем файла, содержащего описание изображения.

Пример 21

Если цветовая глубина равна 1 бит, то пиксел может представлять только один из двух возможных цветов – белый или черный. Если цветовая глубина равна 8 бит, то количество возможных цветов равно 2. При глубине цвета 24 бит количество цветов превышает 16 млн.

Изображения в системах RGB, CMYK, Lab и оттенках серого (gray scale) обычно содержат 8 бит на один цветовой канал. Поскольку в RGB и Lab три цветовых канала, глубина цвета в этих режимах равна 8?3 = 24. В CMYK четыре канала и поэтому цветовая глубина равна 8?4 = 32. В полутоновых изображениях только один канал, следовательно, его цветовая глубина равна 8.

Форматы графических файлов

Формат графического файла связан с методом кодирования графического изображения.

В настоящее время существует более двух десятков форматов графических файлов, например, BMP, GIF, TIFF, JPEG, PCX, WMF и др. Есть файлы, которые кроме статических изображений, могут содержать анимационные клипы и/или звук, например, GIF, PNG, AVI, SWF, MPEG, MOV и др. Важной характеристикой этих файлов является способность представлять содержащиеся в них данные в сжатом виде.

Формат ВМР (Bit Map Picture – Windows Device Independent Bitmap) – формат Windows, он поддерживается всеми графическими редакторами, работающими под ее управлением. Применяется для хранения растровых изображений, предназначенных для использования в Windows. Способен хранить как индексированный (до 256 цветов), так и RGB-цвет (16 млн. оттенков).

Формат GIF (Graphics Interchange Format) – формат графического обмена использует алгоритм сжатия информации без потерь LZW и предназначен для сохранения растровых изображений с количеством цветов не более 256.

Формат PNG (Portable Network Graphics) – формат переносимой графики для сети был разработан с целью заменить формат GIF. Формат PNG позволяет сохранять изображения с глубиной цвета 24 и даже 48 бит, он также позволяет включать каналы масок для управления градиентной прозрачностью, но не поддерживает слои. PNG не сжимает изображения с потерей качества подобно JPEG.

Формат JPEG (Joint Photographic Experts Group) – формат объединенной группы экспертов по фотографии предназначен для компактного хранения многоцветных изображений с фотографическим качеством. Файлы этого формата имеют расширение jpg, jpe или jpeg.

В отличие от GIF, в формате JPEG используется алгоритм сжатия с потерями информации, благодаря чему достигается очень большая степень сжатия (от единиц до сотен раз).

1.2.9. Кодирование звуковой информации

Представление о звуке

С начала 90-х годов персональные компьютеры получили возможность работать со звуковой информацией. Каждый компьютер, имеющий звуковую плату, микрофон и колонки, может записывать, сохранять и воспроизводить звуковую информацию.

Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой (рис. 10).

Рис. 10. Звуковая волна

Чем больше амплитуда сигнала, тем он громче для человека, чем больше частота (Т) сигнала, тем выше тон. Частота звуковой волны выражается в Герцах (Гц, Hz) или числом колебаний в секунду. Человеческое ухо воспринимает звуки в диапазоне (примерно) от 20 Гц до 20 кГц, который так и называется – звуковой диапазон частот.

Характеристики качества звука

"Глубина" кодирования звука - количество бит на один звуковой сигнал.

Современные звуковые карты обеспечивают 16, 32 или 64-битную "глубину" кодирования звука. Количество уровней (градаций амплитуды) можно рассчитать по формуле

Уровней сигнала (градаций амплитуды)

Частота дискретизации – это количество измерений уровней сигнала за 1 секунду

Одно измерение в 1 секунду соответствует частоте 1 Гц

1000 измерений в 1 секунду - 1 кГц

Количество измерений может лежать в диапазоне от 8000 до 48 000 (8 кГц – 48 кГц)

8 кГц соответствует частоте радиотрансляции,

48 кГц – качеству звучания аудио- CD.

Методы кодирования звуковой информации

Для того чтобы компьютер мог обрабатывать непрерывный звуковой сигнал, он должен быть превращен в последовательность электрических импульсов (двоичных нулей и единиц). Однако в отличие от числовых, текстовых и графических данных, у звукозаписей не было столь же длительной и проверенной истории кодирования. В итоге методы кодирования звуковой информации двоичным кодом далеки от стандартизации. Множество отдельных компаний разработали свои корпоративные стандарты, но если говорить обобщенно, то можно выделить два основных направления.

Метод FM (Frequency Modulation) основан на том, что теоретически любой сложный звук можно разложить на последовательность простейших гармонических сигналов разных частот, каждый из которых представляет собой правильную синусоиду, а, следовательно, может быть описан числовыми параметрами, то есть кодом. В природе звуковые сигналы имеют непрерывный спектр, то есть являются аналоговыми. Их разложение в гармонические ряды и представление в виде дискретных цифровых сигналов выполняют специальные устройства – аналогово-цифровые преобразователи (АЦП). Обратное преобразование для воспроизведения звука, закодированного числовым кодом, выполняют цифро-аналоговые преобразователи (ЦАП). Процесс преобразования звука представлен на рисунке 11.

Рис. 11. Процесс преобразования звука

При таких преобразованиях неизбежны потери информации, связанные с методом кодирования, поэтому качество звукозаписи обычно получается не вполне удовлетворительным. В то же время данный метод кодирования обеспечивает компактный код, и потому он нашел применение еще в те годы, когда ресурсы средств вычислительной техники были явно недостаточны.

Метод таблично-волнового (Wave-Table) синтеза лучше соответствует современному уровню развития техники. Если говорить упрощенно, то можно сказать, что где-то в заранее подготовленных таблицах хранятся образцы звуков для множества различных музыкальных инструментов (хотя не только для них). В технике такие образцы называют сэмплами. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения, некоторые параметры среды, в которой происходит звучание, а также прочие параметры, характеризующие особенности звука. Поскольку в качестве образцов используются "реальные" звуки, то качество звука, полученного в результате синтеза, получается очень высоким и приближается к качеству звучания реальных музыкальных инструментов.

Основные форматы звуковых файлов

Формат MIDI (Musical Instrument Digital Interface) – цифровой интерфейс музыкальных инструментов. Создан в 1982 году ведущими производителями электронных музыкальных инструментов – Yamaha, Roland, Korg, E-mu и др. Изначально был предназначен для замены принятого в то время управления музыкальными инструментами при помощи аналоговых сигналов управлением при помощи информационных сообщений, передаваемых по цифровому интерфейсу. Впоследствии стал стандартом де-факто в области электронных музыкальных инструментов и компьютерных модулей синтеза.

Формат аудио-файла WAV, представляющий произвольный звук как он есть – в виде цифрового представления исходного звукового колебания или звуковой волны (wave), отчего в ряде случаев технология создания таких файлов, именуется wave-технологией. Позволяет работать со звуками любого вида, любой формы и длительности.

Графическое представление WAV-файла очень удобно и часто используется в звуковых редакторах и программах-секвенсорах для работы с ними и последующего преобразования (об этом речь пойдет в следующей главе). Данный формат был разработан компанией Microsoft, и все стандартные звуки Windows имеют расширение WAV.

Формат MP3. Это один из цифровых форматов хранения аудио, разработанный Fraunhofer IIS и THOMPSON (1992г.), позднее утвержденный как часть стандартов сжатого видео и аудио MPEG1 и MPEG2. Данная схема является самой сложной из семейства MPEG Layer 1/2/3. Она требует больших затрат машинного времени для кодирования по сравнению с остальными и обеспечивает более высокое качество кодирования. Используется главным образом для передачи аудио в реальном времени по сетевым каналам и для кодирования CD Audio.

1.2.10. Кодирование видео информации

Принципы кодирования видео информации

Video в переводе с латыни означает «смотрю, вижу». Когда говорят о видео, прежде всего, имеют ввиду движущееся изображение на экране телевизора или компьютерного монитора.

Видеокамера преобразует оптическое изображение передаваемой сцены в последовательность электрических сигналов. Эти сигналы несут информацию о яркости и цветности отдельных участков изображения. С целью сохранения для последующего воспроизведения они могут быть записаны на магнитную ленту в аналоговой или цифровой форме.

При аналоговой записи изменения намагниченности видеоленты аналогичны форме световой или звуковой волны. Аналоговые сигналы, в отличие от цифровых, являются непрерывными во времени.

Цифровой сигнал представляет собой последовательность кодовых комбинаций электрических импульсов.

Информация, представленная в цифровом виде, измеряется в битах. Процесс превращения непрерывного сигнала в набор кодовых слов называется аналого-цифровым преобразованием.

Аналогово-цифровое преобразование сигнала проходит в три этапа. На этапе дискретизации (рис. 12) происходит представление непрерывного сигнала последовательностью отсчётов его мгновенных значений. Эти отсчёты берутся через равные промежутки времени.

Рис. 12. Дискретизация

Следующий этап – квантование (рис. 13). Весь диапазон значений сигнала делится на уровни. Величина каждого отсчёта заменяется округлённым значением ближайшего уровня квантования, его порядковым номером

Рис. 13. Уровневое квантование

Кодирование завершает процесс оцифровки аналогового сигнала (рис. 14), который теперь имеет конечное число значений. Каждое значение соответствует порядковому номеру уровня квантования. Этот номер выражается в двоичных единицах. В пределах одного интервала дискретизации передаётся одно кодовое слово.

Рис. 14. Цифровое кодирование

Таким образом, информация об изображении, представленная в цифровом виде, может быть передана на жёсткий диск компьютера для последующей обработки и монтажа без каких-либо дополнительных преобразований.

Компьютерное видео характеризуется следующими параметрами:

• количество кадров в секунду (15, 24, 25...);

• поток данных (килобайт/с);

• формат файла (avi, mov...);

• способ сжатия (Microsoft Video for Windows, MPEG, MPEG-I, MPEG-2, Moution JPEG).

Форматы видео информации

• формат AVI – формат несжатого видео, создаваемый при оцифровке изображения. Это наиболее ресурсоемкий формат, но при этом при оцифровке в него потеря данных минимальна. Поэтому он предоставляет больше возможностей для редактирования, накладки эффектов и любой другой обработки файлов. Однако следует учитывать, что в среднем одна секунда цифруемого изображения занимает 1,5–2 Mбайт на жестком диске.

• формат MPEG – сокращение названия экспертной группы ISO (Moving Picture Expert Group), которая занимается разработкой стандартов кодирования и сжатия видео- и аудиоданных. На сегодняшний день известно несколько разновидностей форматов MPEG.

• MPEG-1 – для записи синхронизированных видеоизображения и звукового сопровождения на CD-ROM с учетом максимальной скорости считывания около 1,5 Мбит/с. Качественные параметры видеоданных, обработанных MPEG-1, во многом аналогичны обычному VHS-видео, поэтому такой формат применяется, в первую очередь, там, где неудобно или непрактично использовать стандартные аналоговые видеоносители;

• MPEG-2 – для обработки видеоизображения, соизмеримого по качеству с телевизионным, при пропускной способности системы передачи данных в пределах от 3 до 15 Мбит/с. На технологиях, основанных на MPEG-2, работают многие телеканалы; сигнал, сжатый в соответствии с этим стандартом, транслируется через телевизионные спутники и используется для архивации больших объемов видеоматериала;

• MPEG-3 – для использования в системах телевидения высокой четкости (high-defenition television, HDTV) со скоростью потока данных 20–40 Мбит/с; но позже он стал частью стандарта MPEG-2 и отдельно теперь не используется;

• MPEG-4 – для работы с цифровым представлением медиаданных для трех областей: интерактивного мультимедиа (включая продукты, распространяемые на оптических дисках и через Сеть), графических приложений (синтетического контента) и цифрового телевидения

Справочные сведения о представлении чисел в компьютере приведены в таблице (таблица 5).

1.2.11. Таблица 5. Представление числовой, текстовой, графической информации в компьютере

Выводы

В данной теме рассмотрено понятие информации и различные способы ее кодирования в компьютере.

Показаны различия информации и данных. Введено понятие адекватности информации и представлены основные ее формы: синтаксическая, семантическая и прагматическая. Для этих форм приведены меры количественной и качественной оценки. Рассмотрены основные свойства информации: репрезентативность, содержательность, достаточность, актуальность, своевременность, точность, достоверность, устойчивость. Информационный процесс представлен как совокупность основных этапов преобразования информации.

Большое внимание в теме уделено вопросам кодирования разного вида информации в компьютере. Приведены основные форматы представления в компьютере числовой, текстовой, графической, звуковой и видео информации. Указаны особенности рассматриваемых форматов в зависимости от вида информации.

Вопросы для самопроверки

  1. В чем различие информации и данных?
  2. Что такое адекватность и в каких формах она проявляется?
  3. Какие существуют меры информации и когда ими надо пользоваться?
  4. Расскажите о синтаксической мере информации.
  5. Расскажите о семантической мере информации.
  6. Расскажите о прагматической мере информации.
  7. Какие существуют показатели качества информации?
  8. Что такое система кодирования информации?
  9. Как можно представить информационный процесс?
  10. Что такое система кодирования и чем она характеризуется?
  11. Какие известны системы счисления и в чем их отличие?
  12. Какие системы счисления применяются в компьютере?
  13. Каким соотношением можно представить число в позиционной системе счисления?
  14. Какие формы представления чисел применяются в компьютере и в чем их отличие?
  15. Приведите на примерах форматы представления чисел для форм с фиксированной и плавающей запятой.
  16. Как осуществляется перевод из любой позиционной системы счисления в десятичную систему счисления? Приведите примеры.
  17. Как осуществляется перевод целого числа из десятичной в другую позиционную систему счисления? Приведите примеры.
  18. Как кодируется текстовая информация? Приведите примеры.
  19. В чем суть кодирования графической информации?
  20. Расскажите о модели RGB кодирования графической информации.
  21. Когда применяется модель кодирования CMYK графической информации? В чем ее отличие от модели RGB?
  22. Какие вы знаете форматы представления в компьютере графической информации и их особенности?
  23. Название практикума Аннотация

    Презентации

    Название презентации Аннотация
    Презентация

Синтаксическая мера информации.

Данная мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. Объем данных Vд в этом случае в сообщении измеряется количеством символов (разрядов) в сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных.

К примеру, в двоичной системе счисления единица измерения - бит (bit-binary digit - двоичный разряд). Бит – это ответ на один двоичный вопрос (“да” или “нет”; “0” или “1”), передаваемый по каналам связи с помощью сигнала. Таким образом, содержащееся в сообщении количество информации в битах определяется количеством двоичных слов естественного языка, количеством знаков в каждом слове, количеством двоичных сигналов, необходимых для выражения каждого знака.

В современных ЭВМ наряду с минимальной единицей измерения данных “бит” широко используется укрупненная единица измерения “байт”, равная 8 бит. В десятичной системе счисления единица измерения “бит” (десятичный разряд).

Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы, т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

Y= I / Vд, причем 0

С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Семантическая мера информации

Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя.

Тезаурус - это совокупность сведений, которыми располагает пользователь или система.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя изменяется количество семантической информации Iс, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус.

Характер такой зависимости показан на рис. 1. Рассмотрим два предельных случая, когда количество семантической информации равно 0:

при = 0 пользователь не воспринимает, не понимает поступающую информацию;

При  пользователь все знает, и поступающая информация ему не нужна.

При оценке информации различают такие её аспекты, как синтаксический, семантический, прагматический. Синтаксический аспект связан со способом передачи информации вне зависимости от её смысловых и потребительских качеств. На синтаксическом уровне рассматриваются формы её передачи и хранения. Обычно информация, предназначенная для передачи, называется сообщением. Сообщение может быть представлено в виде знаков и символов, преобразованных в электрическую форму и закодированную, т.е. представленную в виде определённой последовательности электрических сигналов, однозначно отображающих передаваемые сообщения. Характеристики процессов преобразования сообщений для передачи определяет синтаксический аспект. При хранении синтаксический аспект определяется другими формами представления информации, которые позволяют наилучшим образом осуществлять поиск, запись, обновления, изменение информации в информационной базе. Информацию, рассмотренную только относительно синтаксического аспекта, часто называют данными . Семантический аспект передаёт смысловое содержание информации и соотносит её с ранее имевшейся информацией. Смысловые связи между словами и другими элементами языка отражает “тезаурус” (словарь). Он состоит из двух частей: списка слов и устойчивых словосочетаний, сгруппированных по смыслу, и некоторого ключа (алфавит), позволяющего расположить слова в определённом порядке. При получении информации тезаурус может быть изменён, и степень этого изменения характеризует количество воспроизводимой информации. Прагматический аспект определяет возможность достижения поставленной цели с учётом получаемой информации. Этот аспект отражает потребительские свойства информации - если информация оказалось ценной, поведение её потребителя меняется в нужном направлении. Прагматический аспект проявляется при наличии единства потребителя и поставленной цели.

Таким образом, информация относительно её возникновения и преобразований проходит 3 этапа, которые определяют её семантический, синтаксический и прагматический аспект. Человек сначала наблюдает некоторые факты окружающей действительности, которые отражаются в виде определённого набора данных в его сознании - здесь проявляется синтаксический аспект . Затем, после структуризации этих данных в соответствии с предметной областью человек формализует знания о структуре объекта - это семантический аспект полученной информации. Информация в виде знаний имеет высокую степень структуризации, что позволяет выделять полную информацию об окружающей действительности и создавать информационные модели исследуемых объектов. Полученные знания человек затем использует в своей практике, то есть для достижения поставленных целей, что отражает прагматический аспект .



 

Пожалуйста, поделитесь этим материалом в социальных сетях, если он оказался полезен!