Абстрактная схема связи предложенная к шенноном. Общая схема передачи информации в линии связи. Передача информации по техническим каналам связи

Что такое информация

С начала 1950-х годов предпринимаются попытки использовать понятие информации (не имеющее до настоящего времени единого определения) для объяснения и описания самых разнообразных явлений и процессов. В некоторых учебниках дается следующее определение информации:

Информация - это совокупность сведений, подлежащих хранению, передаче, обработке и использованию в человеческой деятельности.

Такое определение не является полностью бесполезным, т.к. оно помогает хотя бы смутно представить, о чем идет речь. Но с точки зрения логики оно бессмысленно. Определяемое понятие (информация ) здесь подменяется другим понятием (совокупность сведений) , которое само нуждается в определении.

При всех различиях в трактовке понятия информации, бесспорно, то, что проявляется информация всегда в материально-энергетической форме в виде сигналов.

Информацию, представленную в формализованном виде, позволяющем осуществлять ее обработку с помощью технических средств, называют данными .

В основе решения многих задач лежит обработка информации. Для облегчения обработки информации создаются информационные системы (ИС). Автоматизированными называют ИС, в которых применяют технические средства, в частности ЭВМ. Большинство существующих ИС являются автоматизированными, поэтому для краткости просто будем называть их ИС. В широком понимании под определение ИС подпадает любая система обработки информации. По области применения ИС можно разделить на системы, используемые в производстве, образовании, здравоохранении, науке, военном деле, социальной сфере, торговле и других отраслях. По целевой функции ИС можно условно разделить на следующие основные категории: управляющие, информационно-справочные, поддержки принятия решений. Заметим, что иногда используется более узкая трактовка понятия ИС как совокупности аппаратно-программных средств, задействованныхдля решения некоторой прикладной задачи. В организации, например, могут существовать информационные системы, на которые возложены следующие задачи: учет кадров и материально-технических средств, расчет с поставщиками и заказчиками, бухгалтерский учет и т. п. Эффективность функционирования информационной системы (ИС) во многом зависит от ее архитектуры. В настоящее время перспективной является архитектура клиент-сервер. В распространенном варианте она предполагает наличие компьютерной сети и распределенной базы данных, включающей корпоративную базу данных (КБД) и персональные базы данных (ПБД). КБД размещается на компьютере-сервере, ПБД размещаются на компьютерах сотрудников подразделений, являющихся клиентами корпоративной БД. Сервером определенного ресурса в компьютерной сети называется компьютер (программа), управляющий этим ресурсом. Клиентом - компьютер (программа), использующий этот ресурс. В качестве ресурса компьютерной сети могут выступать, к примеру, базы данных, файловые системы, службы печати, почтовые службы. Тип сервера определяется видом ресурса, которым он управляет. Например, если управляемым ресурсом является база данных, то соответствующий сервер называется сервером базы данных. Достоинствоморганизации информационной системы по архитектуре клиент-сервер является удачное сочетание централизованногохранения, обслуживания и коллективного доступа к общей корпоративной информации с индивидуальной работой пользователей над персональной информацией. Архитектура клиент-сервер допускает различные варианты реализации.

Информация поступает в систему в форме сообщений. Под сообщением понимают совокупность знаков или первичных сигналов , содержащих информацию .

Источник сообщений в общем случае образует совокупность источника информации (ИИ) (исследуемого или наблюдаемого объекта) и первичного преобразователя (ПП) (датчика, человека-оператора и т.д.), воспринимающего информацию о протекающем в нем процессе.

Рис. 1. Структурная схема одноканальной системы передачи информации.

Различают дискретные и непрерывные сообщения.

Дискретные сообщения формируются в результате последовательной выдачи источником сообщений отдельных элементов - знаков .

Множество различных знаков называют алфавитом источника сообщения , а число знаков - объемом алфавита .

Непрерывные сообщения не разделены на элементы. Они описываются непрерывными функциями времени, принимающими непрерывное множество значений (речь, телевизионное изображение).

Для передачи сообщения по каналу связи ему ставят в соответствие определенный сигнал. Под сигналом понимают физический процесс, отображающий (несущий) сообщение.

Преобразование сообщения в сигнал, удобный для передачи по данному каналу связи, называюткодированием в широком смысле слова .

Операцию восстановления сообщения по принятому сигналу называют декодированием .

Как правило, прибегают к операции представления исходных знаков в другом алфавите с меньшим числом знаков, называемых символами . При обозначении этой операции используется тот же термин “кодирование ”, рассматриваемый в узком смысле . Устройство, выполняющее такую операцию, называют кодирующим или кодером . Так как алфавит символов меньше алфавита знаков, то каждому знаку соответствует некоторая последовательность символов, которую называют кодовой комбинацией .

Число символов в кодовой комбинации называют ее значностью , число ненулевых символов - весом .

Для операции сопоставления символов со знаками исходного алфавита используют термин “декодирование ”. Техническая реализация этой операции осуществляется декодирующим устройством или декодером .

Передающее устройство осуществляет преобразование непрерывных сообщений или знаков в сигналы, удобные для прохождения по линии связи. При этом один или несколько параметров выбранного сигнала изменяют в соответствии с передаваемой информацией. Такой процесс называют модуляцией . Он осуществляется модулятором . Обратное преобразование сигналов в символы производится демодулятором

Под линией связи понимают среду (воздух, металл, магнитную ленту и т.д.), обеспечивающую поступление сигналов от передающего устройства к приемному устройству.

Сигналы на выходе линии связи могут отличаться от сигналов на ее входе (переданных) вследствие затухания, искажения и воздействия помех.

Помехами называют любые мешающие возмущения, как внешние, так и внутренние, вызывающие отклонение приинятых сигналов от переданных сигналов.

Из смеси сигнала с помехой приемное устройство выделяет сигнал и посредством декодера восстанавливает сообщение, которое в общем случае может отличаться от посланного. Меру соответствия принятого сообщения посланному сообщению называют верностью передачи .

Принятое сообщение с выхода системы связи поступает к абоненту-получателю, которому была адресована исходная информация.

Совокупность средств, предназначенных для передачи сообщений, называют каналом связи .

Способы представления чисел

Двоичные (binary) числа – каждая цифра означает значение одного бита (0 или 1), старший бит всегда пишется слева, после числа ставится буква «b». Для удобства восприятия тетрады могут быть разделены пробелами. Например, 1010 0101b.
Шестнадцатеричные (hexadecimal) числа – каждая тетрада представляется одним символом 0...9, А, В, ..., F. Обозначаться такое представление может по-разному, здесь используется только символ «h» после последней шестнадцатеричной цифры. Например, A5h. В текстах программ это же число может обозначаться и как 0хА5, и как 0A5h, в зависимости от синтаксиса языка программирования. Незначащий ноль (0) добавляется слева от старшей шестнадцатеричной цифры, изображаемой буквой, чтобы различать числа и символические имена.
Десятичные (decimal) числа – каждый байт (слово, двойное слово) представляется обычным числом, а признак десятичного представления (букву «d») обычно опускают. Байт из предыдущих примеров имеет десятичное значение 165. В отличие от двоичной и шестнадцатеричной формы записи, по десятичной трудно в уме определить значение каждого бита, что иногда приходится делать.
Восьмеричные (octal) числа – каждая тройка бит (разделение начинается с младшего) записывается в виде цифры 0–7, в конце ставится признак «о». То же самое число будет записано как 245о. Восьмеричная система неудобна тем, что байт невозможно разделить поровну.

Для перевода десятичного числа в двоичную систему его необходимо последовательно делить на 2 до тех пор, пока не останется остаток, меньший или равный 1. Число в двоичной системе записывается как последовательность последнего результата деления и остатков от деления в обратном порядке.

Пример. Число перевести в двоичную систему счисления.

Для перевода десятичного числа в восьмеричную систему его необходимо последовательно делить на 8 до тех пор, пока не останется остаток, меньший или равный 7. Число в восьмеричной системе записывается как последовательность цифр последнего результата деления и остатков от деления в обратном порядке.

Пример.

Для перевода десятичного числа в шестнадцатеричную систему его необходимо последовательно делить на 16 до тех пор, пока не останется остаток, меньший или равный 15. Число в шестнадцатеричной системе записывается как последовательность цифр последнего результата деления и остатков от деления в обратном порядке.

Пример. Число перевести в шестнадцатеричную систему счисления.

7. Чтобы перевести число из двоичной системы в восьмеричную, его нужно разбить на триады (тройки цифр), начиная с младшего разряда, в случае необходимости дополнив старшую триаду нулями, и каждую триаду заменить соответствующей восьмеричной цифрой (табл. 3).

Пример. Число перевести в восьмеричную систему счисления.

8. Чтобы перевести число из двоичной системы в шестнадцатеричную, его нужно разбить на тетрады (четверки цифр), начиная с младшего разряда, в случае необходимости дополнив старшую тетраду нулями, и каждую тетраду заменить соответствующей восьмеричной цифрой (табл. 3).

Пример. Число перевести в шестнадцатеричную систему счисления.

Теорема Котельникова

В области цифровой обработки сигналов, Теоре́ма Коте́льникова (в англоязычной литературе - теорема Найквиста - Шеннона, или теорема отсчётов) связывает аналоговые и дискретные сигналы и гласит, что, если аналоговый сигнал имеет конечный (ограниченный по ширине) спектр, то он может быть восстановлен однозначно и без потерь по своимотсчётам, взятым с частотой, большей или равной удвоенной верхней частоте :

Такая трактовка рассматривает идеальный случай, когда сигнал начался бесконечно давно и никогда не закончится, а также не имеет во временно́й характеристике точек разрыва. Если сигнал имеет разрывы любого рода в функции зависимости его от времени, то его спектральная мощность нигде не обращается в нуль. Именно это подразумевает понятие «спектр, ограниченный сверху конечной частотой ».

Разумеется, реальные сигналы (например, звук на цифровом носителе) не обладают такими свойствами, так как они конечны по времени и обычно имеют разрывы во временно́й характеристике. Соответственно, ширина их спектра бесконечна. В таком случае полное восстановление сигнала невозможно, и, из теоремы Котельникова, вытекают два следствия:

1. Любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным отсчётам, взятым с частотой , где - максимальная частота, которой ограничен спектр реального сигнала;

2. Если максимальная частота в сигнале превышает половину частоты дискретизации, то способа восстановить сигнал из дискретного в аналоговый без искажений не существует.

Говоря шире, теорема Котельникова утверждает, что непрерывный сигнал можно представить в виде интерполяционного ряда:

где - функция sinc. Интервал дискретизации

удовлетворяет ограничениям

Мгновенные значения данного ряда есть дискретные отсчёты сигнала .

Хотя в западной литературе теорема часто называется теоремой Найквиста со ссылкой на работу 1928 года «Certain topics in telegraph transmission theory», в этой работе речь идёт лишь о требуемой полосе линии связи для передачи импульсного сигнала (частота следования должна быть меньше удвоенной полосы). Таким образом, в контексте теоремы отсчётов справедливо говорить лишь о частоте Найквиста. Примерно в это же время Карл Купфмюллер получил тот же результат . О возможности полной реконструкции исходного сигнала по дискретным отсчётам в этих работах речь не идёт. Теорема была предложена и доказана В. А. Котельниковым в 1933 году в работе «О пропускной способности эфира и проволоки в электросвязи», в которой, в частности, была сформулирована одна из теорем следующим образом : «Любую функцию , состоящую из частот от 0 до , можно непрерывно передавать с любой точностью при помощи чисел, следующих друг за другом через секунд». Независимо от него эту теорему в 1949 (через 16 лет) году доказал Клод Шеннон , поэтому в западной литературе эту теорему часто называют теоремой Шеннона.

Частота дискретизации (или частота сэмплирования ) - частота, с которой происходит оцифровка, хранение, обработка или конвертация сигнала из аналога в цифру. Частота дискретизации, согласно Теореме Котельникова, ограничивает максимальную частоту оцифрованного сигнала до половины своей величины.

Чем выше частота дискретизации, тем более качественной будет оцифровка. Как следует из теоремы Котельникова для того чтобы одназначно восстановить исходный сигнал, частота дискретизации должна превышать наибольшую необходимую частоту сигнала в два раза.

На данный момент, в звуковой технике среднего уровня глубина дискретизации находится в пределах 10-12 бит. Но на слух заметить разницу между 10 и 12 битами не представляется возможным в связи с тем, что человеческое ухо не способно различить такие малые отклонения. Ещё одной причиной бесполезности служит Коэффициент нелинейных искажений УМЗЧ и других компонентов звукогого тракта, явно превышающий величину шага квантования. Бо́льшее разрешение зачастую носит лишь маркетинговый смысл и фактически на слух не заметно.

Оцифро́вка (англ. digitization ) - описание объекта, изображения или аудио- видеосигнала (в аналоговом виде) в виде набора дискретных цифровых замеров (выборок) этого сигнала/объекта, при помощи той или иной аппаратуры, т. е. перевод его вцифровой вид, пригодный для записи на электронные носители.

Для оцифровки объект подвергается дискретизации (в одном или нескольких измерениях, например, в одном измерении для звука, в двух для растрового изображения) и аналогово-цифровому преобразованию конечных уровней.

Полученный в результате оцифровки массив данных («цифровое представление» оригинального объекта) может использоваться компьютером для дальнейшей обработки, передачи по цифровым каналам, сохранению на цифровой носитель. Перед передачей или сохранением цифровое представление, как правило, подвергается фильтрации и кодированию для уменьшения объема.

Иногда термин «оцифровка» используется в переносном смысле, в качестве замены для соответствующего термина [ уточнить ] , при переводе информации из аналогового вида в цифровой. Например:

· Оцифровка звука.

· Оцифровка видео.

· Оцифровка изображения.

· Оцифровка книг - как сканирование, так и (в дальнейшем) распознавание.

· Оцифровка бумажных карт местности - означает сканирование и, как правило, последующую векторизацию (растрово-векторное преобразование, т. е. перевод в формат векторного описания).

Дискретизация

При оцифровке сигнала привязанного ко времени, дискретизацию обычно характеризуют частотой дискретизации - частотой снятия замеров

При сканировании изображения с физических объектов, дискретизация характеризуется количеством результирующих пикселов на единицу длины (например, количеством точек на дюйм - англ. dot per inch, DPI ) по каждому из измерений.

В цифровой фотографии дискретизация характеризуется количеством пикселей на кадр.

Квантование сигналов

Дискретные сигналы создаются на основе непрерывных сигналов. Процесс преобразования непрерывного сигнала в дискретный называется «квантование сигнала». Исходный непрерывный сигнал называется «квантуемый сигнал», сигнал, получаемый в результате квантования, называется «квантованный сигнал». Существуют разные способы квантования непрерывного сигнала.

Квантование по времени . Квантованный сигнал содержит отдельные значения (дискреты) квантуемого сигнала, которые выделяются в фиксированные моменты времени. Процесс квантования по времени показан на рис. 21, где x(t) – квантуемый сигнал, x(t) – квантованный сигнал.

Значения сигнала выделяются через равные промежутки времени T, где T – период (интервал) квантования. Следовательно, квантованный сигнал будет состоять из последовательности дискрет квантуемого сигнала, выделенных в моменты времени, кратные периоду квантования. Квантованный сигнал при квантовании по времени описывается решетчатой функцией времени квантуемого сигнала

где m – целочисленный аргумент времени, m=1,2,3…

Квантование по уровню . В моменты достижения квантуемым сигналом некоторых фиксированных уровней, квантованному сигналу присваивается значение достигнутого уровня, и это значение квантованного сигнала сохраняется до момента достижения квантуемым сигналам следующего уровня (рис.22).

На рис. 22 для квантуемого сигнала x(t) определены уровни квантования с интервалом (шагом) a. Значения квантованного сигнала x(t) изменяются в момент достижения квантуемым сигналом очередного уровня. В результате квантованный сигнал представляет собой ступенчатую функцию времени.

Типичным устройством, которое осуществляет квантование по уровню, является электромагнитное реле (рис. 23), содержащее электромагнит K и переключаемые электромагнитом электрические контакты S. Входом для реле является напряжение U на обмотке электромагнита, а выходом – состояние контактов S. При непрерывном изменении напряжения на электромагните состояние контактов (замкнуты или разомкнуты) будет изменяться только при переходе величины напряжения через уровень срабатывания U ср реле (уровень срабатывания – значение тока, при котором электромагнит срабатывает и переключает контакты реле).

Таким образом, для реле квантованный сигнал может принимать только два уровня: контакты S разомкнуты, или контакты S замкнуты. Состояние контактов удобно описывать как логическую величину, принимающую значение «1» при замкнутых контактах, и значение «0» при разомкнутых контактах.

Характеристика преобразования входного напряжения U в состояние контактов S для реле показана на рис.23. Это ступенчатая характеристика, изменение уровня которой происходит при входном напряжении U = U ср. Характеристика подобного вида получила название «релейная характеристика». Релейная характеристика является одним из случаев нелинейной характеристики.

Квантование по времени и по уровню . В этом случае оба предыдущих способа комбинируются, поэтому способ квантования называют также комбинированным. При комбинированном квантовании квантованному сигналу в наперед заданные моменты времени присваивается значение ближайшего фиксированного уровня, которого достиг квантуемый сигнал. Это значение сохраняется до следующего момента квантования.

Графики квантуемого и квантованного сигналов показаны на рис. 24. На графике квантуемого сигнала x(t) точками показаны значения достигнутых уровней, ближайших к значениям квантуемого сигнала в момент квантования. Изменения квантованного сигнала происходят в моменты квантования, кратные периоду T квантования по времени. Таким образом, квантованный сигнал будет характеризоваться периодом квантования и значением ближайшего фиксированного уровня.

Типичным примером устройства, в котором имеет место комбинированное квантование, является аналого-цифровой преобразователь (АЦП) и цифровой прибор, построенный с использованием аналого-цифрового преобразователя. Выходная информация таких устройств обновляется с периодом, определяемым длительностью преобразования входного сигнала в цифровой код (квантование по времени), а выходная информация представляется с конечной точностью, определяемой разрешающей способностью квантования или разрядностью кода для представления квантованного сигнала.

Частота дискретизации (или частота семплирования , англ. sample rate ) - частота взятия отсчетов непрерывного во времени сигнала при его дискретизации (в частности, аналого-цифровым преобразователем). Измеряется в герцах.

Термин применяется и при обратном, цифро-аналоговом преобразовании, особенно если частота дискретизации прямого и обратного преобразования выбрана разной (Данный приём, называемый также «Масштабированием времени», встречается, например, при анализе сверхнизкочастотных звуков, издаваемых морскими животными).

Чем выше частота дискретизации, тем более широкий спектр сигнала может быть представлен в дискретном сигнале. Как следует из теоремы Котельникова, для того, чтобы однозначно восстановить исходный сигнал, частота дискретизации должна более чем в два раза превышать наибольшую частоту в спектре сигнала.

Некоторые из используемых частот дискретизации звука:

· 8 000 Гц - телефон, достаточно для речи, кодек Nellymoser;

· 12 000 Гц (на практике встречается редко);

· 22 050 Гц - радио;

· 44 100 Гц - используется в Audio CD;

· 48 000 Гц - DVD, DAT;

· 96 000 Гц - DVD-Audio (MLP 5.1);

· 192 000 Гц - DVD-Audio (MLP 2.0);

· 2 822 400 Гц - SACD, процесс однобитной дельта-сигма модуляции, известный как DSD - Direct Stream Digital, совместно разработан компаниями Sony и Philips;

· 5 644 800 Гц - DSD с удвоенной частотой дискретизации, однобитный Direct Stream Digital с частотой дискретизации вдвое больше, чем у SACD. Используется в некоторых профессиональных устройствах записи DSD.

Доказательство

Возьмем некоторое . формула для, , выглядит следующим образом:

AEP показывает что для достаточно больших n , последовательность сгенерированная из источника недостоверна в типичном случае - , сходящаяся. В случае для достаточно больших: n , (см AEP)

Определение типичных наборов подразумевает, что те последовательности, которые лежат в типичном наборе, удовлетворяют:

Заметьте, что:

· Вероятность того, что последовательность была получена из

Больше чем

· начиная с вероятности полной совокупности является наиболее большим.

· . Fдля доказательства используйте верхнюю границу вероятности для каждого терма в типичном случае, и нижнюю границу для общего случая .

Начиная с битов достаточно, чтобы отличить любую строку

Алгоритм шифрования: шифратор проверяет является ли ложной входящая последовательность, если да, то возвращает индекс входящей частоты в последовательности, если нет, то возвращает случайное digit number. численное значение. В случае если входящая вероятность неверна в последовательности (с частотой примерно ), то шифратор не выдает ошибку. То есть вероятность ошибки составляет выше чем

Доказательство обратимости Доказательство обратимости базируется на том, что требуется показать что для любой последовательности размером меньше чем (в смысле экспоненты) будет покрывать частоту последовательности, ограниченную 1.

Доказательство теоремы об источнике шифрования для кодов символов[править | править исходный текст]

Пусть длина слова для каждого возможного (). Определим , где С выбирается таким образом, что: .

где вторая строка является неравенством Гиббса, а пятая строка является неравенством Крафта .

для второго неравенства мы можем установить

таким образом минимальное S удовлетворяет

Тема: Результаты Шеннона и проблемы кодирования.

Сжатие данных.

Закодированные сообщения передаются по каналам связи, хранятся в запоминающих устройствах, обрабатываются процессором. Объемы данных, циркулирующих в АСУ, велики, и поэтому в о многих случаях важно обеспечить такое кодирование данных, которое характеризуется минимальной длиной получающихся сообщений. Эта проблема сжатия данных. Решение её обеспечивает увеличение скорости передачи информации и уменьшение требуемой памяти запоминающих устройств. В конечном итоге это ведет к повышению эффективности системы обработки данных.

Существует два подхода (или два этапа) сжатия данных:

Сжатие, основанное на анализе конкретной структуры и смыслового содержания данных;

Сжатие, основанное на анализе статистических свойств кодируемых сообщений. В отличие от первого второй подход носит универсальный характер и может использоваться во всех ситуациях, где есть основания полагать, что сообщения подчиняются вероятностным законам. Далее мы рассмотрим оба этих подхода.

4.1. Сжатие на основе смыслового содержания данных

Эти методы носят эвристический, уникальный характер, однако основную идею можно пояснить следующим образом. Пусть множество содержит элементов. Тогда для кодирования элементов множества равномерным кодом потребуется двоичных знаков. При этом будут использованы все двоичные кодовые комбинации. Если используются не все комбинации, код будет избыточным. Таким образом, для сокращения избыточности следует попытаться очертить множество возможных значений элементов данных и с учетом этого произвести кодирование. В реальных условиях это не всегда просто, некоторые виды данных имеют очень большую мощность множества возможных значений. Посмотрим, как же поступают в конкретных случаях.

Переход от естественных обозначений к более компактным. Значения многих конкретных данных кодируются в виде, удобном для чтения человеком. При этом они содержат обычно больше символов, чем это необходимо. Например, дата записывается в виде «26 января 1982 г.» или в самой краткой форме: «26.01.82». при этом многие кодовые комбинации, например «33.18.53» или «95.00.11», никогда не используются. Для сжатия таких данных день можно закодировать пятью разрядами, месяц - четырьмя, год - семью, т.е. вся дата займет не более двух байтов. Другой способ записи даты, предложенный еще в средние века состоит в том, чтобы записывать общее число дней, прошедших к настоящему времени с некоторой точки отсчета. При этом часто ограничиваются четырьмя последними цифрами этого представления. Например, 24 мая 1967 года записывается в виде 0000 и отсчет дней от этой даты требует, очевидно, два байта в упакованном десятичном формате.

КОДИРОВАНИЕ ИНФОРМАЦИИ.

АБСТРАКТНЫЙ АЛФАВИТ

Информация передается в виде сообщений. Дискретная информация записывается с помощью некоторого конечного набора знаков, которые будем называть буквами, не вкладывая в это слово привычного ограниченного значения (типа «русские буквы» или «латинские буквы»). Буква в данном расширенном понимании - любой из знаков, которые некоторым соглашением установлены для общения. Например, при привычной передаче сообщений на русском языке такими знаками будут русские буквы - прописные и строчные, знаки препинания, пробел; если в тексте есть числа - то и цифры. Вообще, буквой будем называть элемент некоторого конечного множества (набора) отличных друг от друга знаков. Множество знаков, в котором определен их порядок, назовем алфавитом (общеизвестен порядок знаков в русском алфавите: А, Б,..., Я).

Рассмотрим некоторые примеры алфавитов.

1, Алфавит прописных русских букв:

А Б В Г Д Е Е Ж З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Ъ Ы Ь Э Ю Я

2. Алфавит Морзе:

3. Алфавит клавиатурных символов ПЭВМ IBM (русифицированная клавиатура):

4. Алфавит знаков правильной шестигранной игральной кости:

5. Алфавит арабских цифр:

6. Алфавит шестнадцатиричных цифр:

0123456789ABCDEF

Этот пример, в частности, показывает, что знаки одного алфавита могут образовываться из знаков других алфавитов.

7. Алфавит двоичных цифр:

Алфавит 7 является одним из примеров, так называемых, «двоичных» алфавитов, т.е. алфавитов, состоящих из двух знаков. Другими примерами являются двоичные алфавиты 8 и 9:

8. Двоичный алфавит «точка, «тире»:. _

9. Двоичный алфавит «плюс», «минус»: + -

10. Алфавит прописных латинских букв:

ABCDEFGHIJKLMNOPQRSTUVWXYZ

11. Алфавит римской системы счисления:

I V Х L С D М

12. Алфавит языка блок-схем изображения алгоритмов:

13. Алфавит языка программирования Паскаль (см. в главе 3).
^

КОДИРОВАНИЕ И ДЕКОДИРОВАНИЕ

В канале связи сообщение, составленное из символов (букв) одного алфавита, может преобразовываться в сообщение из символов (букв) другого алфавита. Правило, описывающее однозначное соответствие букв алфавитов при таком преобразовании, называют кодом. Саму процедуру преобразования сообщения называют перекодировкой. Подобное преобразование сообщения может осуществляться в момент поступления сообщения от источника в канал связи (кодирование) и в момент приема сообщения получателем (декодирование). Устройства, обеспечивающие кодирование и декодирование, будем называть соответственно кодировщиком и декодировщиком. На рис. 1.5 приведена схема, иллюстрирующая процесс передачи сообщения в случае перекодировки, а также воздействия помех (см. следующий пункт).

Рис. 1.5. Процесс передачи сообщения от источника к приемнику

Рассмотрим некоторые примеры кодов.

1. Азбука Морзе в русском варианте (алфавиту, составленному из алфавита русских заглавных букв и алфавита арабских цифр ставится в соответствие алфавит Морзе):

2. Код Трисиме (знакам латинского алфавита ставятся в соответствие комбинации из трех знаков: 1,2,3):

А 111 D 121 G 131 J211 M221 P231 S311 V321 Y331
В 112 E 122 H 132 K212 N222 Q232 T312 W322 Z332
С 113 F 123 I 133 L213 О223 R233 U313 X323 .333

Код Трисиме является примером, так называемого, равномерного кода (такого, в котором все кодовые комбинации содержат одинаковое число знаков - в данном случае три). Пример неравномерного кода - азбука Морзе.

3. Кодирование чисел знаками различных систем счисления см. §3.

ПОНЯТИЕ О ТЕОРЕМАХ ШЕННОНА

Ранее отмечалось, что при передаче сообщений по каналам связи могут возникать помехи, способные привести к искажению принимаемых знаков. Так, например, если вы попытаетесь в ветреную погоду передать речевое сообщению человеку, находящемуся от вас на значительном расстоянии, то оно может быть сильно искажено такой помехой, как ветер. Вообще, передача сообщений при наличии помех является серьезной теоретической и практической задачей. Ее значимость возрастает в связи с повсеместным внедрением компьютерных телекоммуникаций, в которых помехи неизбежны. При работе с кодированной информацией, искажаемой помехами, можно выделить следующие основные проблемы: установления самого факта того, что произошло искажение информации; выяснения того, в каком конкретно месте передаваемого текста это произошло; исправления ошибки, хотя бы с некоторой степенью достоверности.

Общая схема передачи информации в линии связи

Ранее источник информации был определен как объект или субъект, порождающий информацию и имеющий возможность представить ее в виде сообщения, т.е. последовательности сигналов в материальном носителе. Другими словами, источник связывает информацию с ее материальным носителем. Передача сообщения от источника к приемнику всегда связана с некоторым нестационарным процессом, происходящим в материальной среде. Это условие является обязательным, поскольку сама информация материальным объектом или формой существования материи не является. Способов передачи информации существует множество: почта, телефон, радио, телевидение, компьютерные сети и пр. Однако при всем разнообразии конкретной реализации способов связи в них можно выделить общие элементы, представленные на схеме (рис. 9).

Возможна ситуация, когда кодирующее устройство оказывается внешним по отношению к источнику информации, например, телеграфный аппарат или компьютер по отношению к работающему на нем оператору. Далее коды должны быть переведены в последовательность материальных сигналов, т. е. помещены на материальный носитель - эту операцию выполняет преобразователь. Преобразователь может быть совмещен с кодирующим устройством (например, телеграфный аппарат),

Рис. 9.

связи может являться и самостоятельным элементом линии связи (например, модем, преобразующий электрические дискретные сигналы с частотой компьютера в аналоговые сигналы с частотой, на которой их затухание в телефонных линиях будет наименьшим). К преобразователям относят также устройства, которые переводят сообщение с одного носителя на другой, например, мегафон или телефонный аппарат, преобразующие голосовые сигналы в электрические; радиопередатчик, преобразующий голосовые сигналы в радиоволны; телекамера, преобразующая изображение в последовательность электрических импульсов. В общем случае при преобразовании выходные сигналы не полностью воспроизводят все особенности сообщения на входе, а лишь его существенные стороны, т. е. при преобразовании часть информации теряется. Например, полоса пропускания частот при телефонной связи от 300 до 3400 Гц, в то время как частоты, воспринимаемые человеческим ухом, лежат в интервале - 16-20 000 Гц (т. е. телефонные линии «обрезают» высокие частоты, что приводит к искажениям звука); в черно-белом телевидении при преобразовании теряется цвет изображения. Именно в связи с этим встает задача выработки такого способа кодирования сообщения, который обеспечивал бы возможно более полное представление исходной информации при преобразовании и в то же время был бы согласован со скоростью передачи информации по данной линии связи.

После преобразователя сигналы поступают и распространяются по каналу связи. Понятие «канал связи» включает в себя материальную среду, а также физический или иной процесс, посредством которого осуществляется передача сообщения, т. е. распространение сигналов в пространстве с течением времени. В таблице 10 приведены примеры некоторых каналов связи.

Любой реальный канал связи подвержен внешним воздействиям, в нем также могут происходить внутренние процессы, в результате которых искажаются передаваемые сигналы и, следовательно, связанное с ними сообщение. Такие воздействия называются шумами (помехами). Источники помех могут быть внешними,

Каналы связи

Таблица 10

Канал связи

Среда

Носитель сообщения

Процесс, используемый для передачи сообщений

Почта, курьеры

Среда обитания человека

Механическое перемещение носителя

Телефон, компьютерные сети

Проводник

Электрический ток

Перемещение электрических зарядов

Радио, телевидение

Электромагнитное

Электромагнитные

Распространение электромагнитных волн

Световые волны

Распространение световых волн

Звуковые волны

Распространение звуковых волн

Обоняние, вкус

Воздух, пища

Химические вещества

Химические реакции

Осязание

Поверхность кожи

Объект, воздействующий на органы осязания

Теплопередача, давление

После прохождения сообщения по каналу связи сигналы с помощью приемного преобразователя переводятся в последовательность кодов, которые декодирующим устройством представляются в форме, необходимой приемнику информации. На этапе приема, как и при передаче, преобразователь может быть совмещен с декодирующим устройством (например, радиоприемник или телевизор) или существовать самостоятельно (например, модем).

Понятие «линия связи» объединяет все элементы, представленные на схеме, - от источника до приемника информации. Характеристиками любой линии связи являются скорость, с которой возможна передача сообщения в ней, а также степень искажения сообщения в процессе передачи. Из этих параметров вычленим те, что относятся непосредственно к каналу связи, т. е. характеризуют среду и процесс передачи.

Характеристики канала связи

Далее рассмотрим каналы связи, передача сообщений по которым осуществляется за счет электрических импульсов. С практической точки зрения, а также для компьютерных линий связи эти каналы представляют наибольший интерес.

Ширина полосы пропускания

Любой преобразователь, работа которого основана на использовании колебаний (электрических или механических) может формировать и пропускать сигналы из ограниченной области частот. (Пример с телефонной связью приводился выше.) То же следует отнести к радио и телевизионной связи: весь частотный спектр разделен на диапазоны (ДВ, СВ, KBI, КВП, УКВ, ДМ В), в пределах которых каждая станция занимает свой поддиапазон, чтобы не мешать вещанию других.

Интервал частот, используемый данным каналом связи для передачи сигналов, называется шириной полосы пропускания.

Для построения теории важна не сама ширина полосы пропускания, а максимальное значение частоты из данной полосы (v m), поскольку именно ей определяется возможная скорость передачи информации по каналу.

Длительность элементарного импульса может быть определена из следующих соображений. Если параметр сигнала меняется синусоидально, то, как видно из рисунка, за один период колебания Т сигнал будет иметь одно максимальное значение и одно минимальное.

Рис. 10.

Если аппроксимировать синусоиду прямоугольными импульсами и сместить начало отсчета на уровень минимального значения, получится, что сигнал принимает всего два значения: максимальное (обозначим его «1») - импульс, минимальное (можно обозначить «О») - пауза. Импульс и паузу можно считать элементарными сигналами; при выбранной аппроксимации их длительности очевидно одинаковы и равны:

Если же импульсы порождаются тактовым генератором, имеющим частоту v m , то

Таким образом, каждое т 0 секунд можно передавать импульс или паузу, связывая с их последовательностью определенные коды. Использовать сигналы большей длительности, чем т 0 , в принципе, возможно (например, 2т 0) - это не приведет к потере информации, хотя снизит скорость ее передачи по каналу. Использование же сигналов более коротких, чем т 0 , может привести к информационным потерям, поскольку сигналы тогда будут принимать какие-то промежуточные значения между минимальным и максимальным, что затруднит их интерпретацию.

Таким образом, v m определяет длительность элементарного сигнала т 0 , используемого для передачи сообщения.

Пропускная способность канала связи

Если с передачей одного импульса связано количество информации 1. тр, а передается оно за время т 0 , отношение I к т 0 , очевидно, будет отражать среднее количество информации, передаваемое по каналу за единицу времени, - эта величина является характеристикой канала связи и называется пропускной способностью канала С:

Если Г тр выражено в битах, а т 0 - в секундах, то единицей измерения С будет бит/с. Раньше такая единица называлась бод, однако название не прижилось, и по этой причине пропускная способность канала связи измеряется в бит/с. Производными единицами являются:

  • 1 Кбит/с = 10 3 бит/с,
  • 1 Мбит/с = 10 6 бит/с,
  • 1 Гбит/с = 10 9 бит/с.

Скорость передачи информации

Пусть по каналу связи за время t передано количество информации I. Можно ввести величину, характеризующую быстроту передачи информации, - скорость передачи информации J:

Размерностью J, как и С, является бит/с. Каково соотношение этих характеристик? Поскольку т 0 - минимальная длительность элементарного сигнала, очевидно, что С соответствует максимальной скорости передачи информации по данной линии связи, т. е. J J max Таким образом, максимальная скорость передачи информации по каналу связи равна его пропускной способности.

Энтропия и информация

Случайные события могут быть описаны с использованием понятия «вероятность». Соотношения теории вероятностей позволяют найти (вычислить) вероятности как одиночных случайных событий, так и сложных опытов, объединяющих несколько независимых или связанных между собой событий. Однако описать случайные события можно не только в терминах вероятностей.

То, что событие случайно, означает отсутствие полной уверенности в его наступлении, что, в свою очередь, создает неопределенность в исходах опытов, связанных с данным событием. Безусловно, степень неопределенности различна для разных ситуаций. Например, если опыт состоит в определении возраста случайно выбранного студента 1-го курса дневного отделения вуза, то с большой долей уверенности можно утверждать, что он окажется менее 30 лет; хотя по положению на дневном отделении могут обучаться лица в возрасте до 35 лет, чаще всего очно учатся выпускники школ ближайших нескольких выпусков. Гораздо меньшую определенность имеет аналогичный опыт, если проверяется, будет ли возраст произвольно выбранного студента меньше 18 лет. Для практики важно иметь возможность произвести численную оценку неопределенности разных опытов. Попробуем ввести такую количественную меру неопределенности.

Начнем с простой ситуации, когда опыт имеет п равновероятных исходов. Очевидно, что неопределенность каждого из них зависит от п, т. е. мера неопределенности является функцией числа исходов f(n).

Можно указать некоторые свойства этой функции:

  • 1. f(l) = 0, поскольку при п = 1 исход опыта не является случайным и, следовательно, неопределенность отсутствует;
  • 2. f(n) возрастает с ростом п, поскольку чем больше число возможных исходов, тем более затруднительным становится предсказание результата опыта.

Единица измерения неопределенности при двух возможных равновероятных

исходах опыта называется бит.

Установлен явный вид функции, описывающей меру неопределенности опыта, имеющего п равновероятных исходов:

Эта величина получила название энтропия. В дальнейшем будем обозначать ее Н. Утверждение. Энтропия равна информации относительно опыта, которая содержится в нем самом.

Можно уточнить:

Энтропия опыта равна той информации, которую получаем в результате его осуществления.

Свойства информации:

  • 1. /(а,Р) > 0, причем /(а,|3) = 0 опыты аир независимы.
  • 2. /(а,р) = /(Р,а), т. е. информация симметрична относительно последовательности опытов.

3. 5 т. е. информация опыта равна среднему значению количества информации, содержащейся в каком-либо одном его исходе.

Легко получить следствие формулы для случая, когда

все п исходов равновероятны. В этом случае все и, следовательно,

Эта формула была выведена в 1928 г. американским инженером Р. Хартли и носит его имя. Она связывает количество равновероятных состояний (п) и количество информации в сообщении (/), что любое из этих состояний реализовалось. Ее смысл в том, что, если некоторое множество содержит п элементов и х принадлежит данному множеству, то для его выделения (однозначной идентификации) среди прочих требуется количество информации, равное log 2 «.

Частным случаем применения формулы Хартли является ситуация, когда п = 2 к. Подставляя это значение в формулу Хартли, очевидно, получим:

Формула Шеннона

Известны вероятности , с которыми система принимает одно из своих состояний

- формула Шеннона - энтропия системы - формула измерения количества информации.

Свойства энтропии

2. . (Формула Хартли)

Это случай максимальной энтропии.

Первая теорема Шеннона.

При отсутствии помех всегда возможен такой вариант кодирования сообщения, при котором избыточность кода будет сколь угодно близкой к нулю.

Вторая теорема Шеннона.

При передаче информации по каналу с шумом всегда имеется способ кодирования, при котором сообщение будет передаваться со сколь угодно высокой достоверностью, если скорость передачи не превышает пропускной способности канала.

Используя ресурсы Интернет, найти ответы на вопросы:

Задание 1

1. Что представляет из себя процесс передачи информации?

Передача информации - физический процесс, посредством которого осуществляется перемещение информации в пространстве. Записали информацию на диск и перенесли в другую комнату. Данный процесс характеризуется наличием следующих компонентов:


2. Общая схема передачи информации

3. Перечислите известные вам каналы связи

Канал связи (англ. channel, data line ) - система технических средств и среда распространения сигналов для передачи сообщений (не только данных) от источника к получателю (и наоборот). Канал связи, понимаемый в узком смысле (тракт связи ), представляет только физическую среду распространения сигналов, например, физическую линию связи.

По типу среды распространения каналы связи делятся на:

4. Что такое телекоммуникации и компьютерные телекоммуникации?

Телекоммуникации (греч. tele - вдаль, далеко и лат. communicatio - общение) - это передача и прием любой информации (звука, изображения, данных, текста) на расстояние по различным электромагнитным системам (кабельным и оптоволоконным каналам, радиоканалам и другим проводным и беспроводным каналам связи).

Телекоммуникационная сеть
- это система технических средств, посредством которой осуществляются телекоммуникации.

К телекоммуникационным сетям относятся:
1. Компьютерные сети (для передачи данных)
2. Телефонные сети (передача голосовой информации)
3. Радиосети (передача голосовой информации - широковещательные услуги)
4. Телевизионные сети (передача голоса и изображения - широковещательные услуги)

Компьютерные телекоммуникации - телекоммуникации, оконечными устройствами которых являются компьютеры.

Передача информации с компьютера на компьютер называется синхронной связью, а через промежуточную ЭВМ, позволяющую накапливать сообщения и передавать их на персональные компьютеры по мере запроса пользователем, - асинхронной.

Компьютерные телекоммуникации начинают внедряться в образование. В высшей школе их используют для координации научных исследований, оперативного обмена информацией между участниками проектов, обучения на расстоянии, проведения консультаций. В системе школьного образования - для повышения эффективности самостоятельной деятельности учащихся, связанной с разнообразными видами творческих работ, включая и учебную деятельность, на основе широкого использования исследовательских методов, свободного доступа к базам данных, обмена информацией с партнерами как внутри страны, так и за рубежом.

5. Что такое пропускная способность канала передачи информации?
Пропускная способность - метрическая характеристика , показывающая соотношение предельного количества проходящих единиц (информации , предметов, объёма) в единицу времени через канал, систему, узел.
В информатике определение пропускной способности обычно применяется к каналу связи и определяется максимальным количеством переданной/полученной информации за единицу времени.
Пропускная способность - один из важнейших с точки зрения пользователей факторов. Она оценивается количеством данных, которые сеть в пределе может передать за единицу времени от одного подсоединенного к ней устройства к другому.

Скорость передачи информации зависит в значительной степени от скорости её создания (производительности источника), способов кодирования и декодирования. Наибольшая возможная в данном канале скорость передачи информации называется его пропускной способностью. Пропускная способность канала, по определению, есть скорость передачи информации при использовании «наилучших» (оптимальных) для данного канала источника, кодера и декодера, поэтому она характеризует только канал.

Схематично процесс передачи информации показан на рисунке. При этом предполагается, что имеется источник и получатель информации. Сообщение от источника к получателю передается посредством канала связи (информационного канала).

Рис. 3. – Процесс передачи информации

В таком процессе информация представляется и передается в форме некоторой последовательности сигналов, символов, знаков. Например, при непосредственном разговоре между людьми происходит передача звуковых сигналов - речи, при чтении текста человек воспринимает буквы – графические символы. Передаваемая последовательность называется сообщением. От источника к приемнику сообщение передается через некоторую материальную среду (звук - акустические волны в атмосфере, изображение – световые электромагнитные волны). Если в процессе передачи используются технические средства связи, то их называют каналами передачи информации (информационными каналами). К ним относятся телефон, радио, телевидение.

Можно говорить о том, что органы чувств человека выполняют роль биологических информационных каналов. С их помощью информационное воздействие на человека доносится до памяти.

Клодом Шенноном , была предложена схема процесса передачи информации по техническим каналам связи, представленная на рисунке.

Рис. 4. – Процесс передачи информации по Шеннону

Работу такой схемы можно пояснить на процессе разговора по телефону. Источником информации является говорящий человек. Кодирующим устройством – микрофон телефонной трубки, с помощью которого звуковые волны (речь) преобразуются в электрические сигналы. Каналом связи является телефонная сеть (провода, коммутаторы телефонных узлов через которые проходит сигнал)). Декодирующим устройством является телефонная трубка (наушник) слушающего человека – приемник информации. Здесь пришедший электрический сигнал превращается в звук.

Связь, при которой передача производится в форме непрерывного электрического сигнала, называется аналоговой связью.

Под кодированием понимается любое преобразование информации, идущей от источника, в форму, пригодную для ее передачи по каналу связи.

В настоящее время широко используется цифровая связь, когда передаваемая информация кодируется в двоичную форму (0 и 1 - двоичные цифры), а затем декодируется в текст, изображение, звук. Цифровая связь является дискретной.

Термином "шум" называют разного рода помехи, искажающие передаваемый сигнал и приводящие к потере информации. Такие помехи, прежде всего, возникают по техническим причинам: плохое качество линий связи, незащищенность друг от друга различных потоков информации, передаваемой по одним и тем же каналам. В таких случаях необходима защита от шума.

В первую очередь применяются технические способы защиты каналов связи от воздействия шумов. Например, использование экранного кабеля вместо "голого" провода; применение разного рода фильтров, отделяющих полезный сигнал от шума и пр.

Клодом Шенноном была разработана специальная теория кодирования, дающая методы борьбы с шумом. Одна из важным идей этой теории состоит в том, что передаваемый по линии связи код должен быть избыточным. За счет этого потеря какой-то части информации при передаче может быть компенсирована.

Однако, нельзя делать избыточность слишком большой. Это приведет к задержкам и подорожанию связи. Теория кодирования К. Шеннона как раз и позволяет получить такой код, который будет оптимальным. При этом избыточность передаваемой информации будет минимально-возможной, а достоверность принятой информации - максимальной.

В современных системах цифровой связи часто применяется следующий прием борьбы с потерей информации при передаче. Все сообщение разбивается на порции - блоки. Для каждого блока вычисляется контрольная сумма (сумма двоичных цифр), которая передается вместе с данным блоком. В месте приема заново вычисляется контрольная сумма принятого блока, и если она не совпадает с первоначальной, то передача данного блока повторяется. Так будет происходить до тех пор, пока исходная и конечная контрольные суммы не совпадут.

Скорость передачи информации – это информационный объем сообщения, передаваемого в единицу времени. Единицы измерения скорости информационного потока: бит/с, байт/с и др.

Технические линии информационной связи (телефонные линии, радиосвязь, оптико-волоконный кабель) имеют предел скорости передачи данных, называемый пропускной способностью информационного канала . Ограничения на скорость передачи носят физический характер.

>>Информатика: Информатика 9 класс. Дополнение к главе 1

Дополнение к главе 1

1.1. Передача информации по техническим каналам связи

Основные темы параграфа:

♦ схема К. Шеннона;
♦ кодирование и декодирование информации;
♦ шум и защита от шума. Теория кодирования К. Шеннона.

Схема К. Шеннона

Американским ученым, одним из основателей теории информации, Клодом Шенноном была предложена схема процесса передачи информации по техническим каналам связи, представленная на рис. 1.3.

Работу такой схемы можно пояснить на знакомом всем процессе разговора по телефону. Источником информации является говорящий человек. Кодирующим устройством - микрофон телефонной трубки, с помощью которого звуковые волны (речь) преобразуются в электрические сигналы. Каналом связи является телефонная сеть (провода, коммутаторы телефонных узлов, через которые проходит сигнал). Декодирующим устройством является телефонная трубка (наушник) слушающего человека - приемника информации. Здесь пришедший электрический сигнал превращается в звук.

Связь, при которой передача производится в форме непрерывного электрического сигнала, называется аналоговой связью.

Кодирование и декодирование информации

Под кодированием понимается любое преобразование информации, идущей от источника, в форму, пригодную для ее передачи по каналу связи.

На заре эры радиосвязи применялся азбуки Морзе. Текст преобразовывался в последовательность точек и тире (коротких и длинных сигналов) и передавался в эфир. Принимавший на слух такую передачу человек должен был суметь декодировать код обратно в текст. Еще раньше азбука Морзе использовалась в телеграфной связи. Передача информации с помощью азбуки Морзе - это пример дискретной связи.

В настоящее время широко используется цифровая связь, когда передаваемая информация кодируется в двоичную форму (0 и 1 - двоичные цифры), а затем декодируется в текст, изображение, звук. Цифровая связь, очевидно, тоже является дискретной.

Шум и защита от шума. Теория кодирования К. Шеннона

Термином «шум» называют разного рода помехи, искажающие передаваемый сигнал и приводящие к потере информации. Такие помехи прежде всего возникают по техническим причинам: плохое качество линий связи, незащищенность друг от друга различных потоков информации, передаваемых по одним и тем же каналам. Часто, беседуя по телефону, мы слышим шум, треск, мешающие понять собеседника, или на наш разговор накладывается разговор других людей. В таких случаях необходима защита от шума.

В первую очередь применяются технические способы защиты каналов связи от воздействия шумов. Такие способы бывают самыми разными, иногда - простыми, иногда - очень сложными. Например, использование экранированного кабеля вместо «голого» провода; применение разного рода фильтров, отделяющих полезный сигнал от шума, и пр.

Клодом Шенноном была разработана специальная теория кодирования, дающая методы борьбы с шумом. Одна из важных идей этой теории состоит в том, что передаваемый по линии связи код должен быть избыточным. За счет этого потеря какой-то части информации при передаче может быть компенсирована. Например, если при разговоре по телефону вас плохо слышно, то, повторяя каждое слово дважды, вы имеете больше шансов на то, что собеседник поймет вас правильно.

Однако нельзя делать избыточность слишком большой. Это приведет к задержкам и удорожанию связи. Теория кодирования К. Шеннона как раз и позволяет получить такой код, который будет оптимальным. При этом избыточность передаваемой информации будет минимально возможной, а достоверность принятой информации - максимальной.

В современных системах цифровой связи часто применяется следующий прием борьбы с потерей информации при передаче. Все сообщение разбивается на порции - пакеты. Для каждого пакета вычисляется контрольная сумма (сумма двоичных цифр), которая передается вместе с данным пакетом. В месте приема заново вычисляется контрольная сумма принятого пакета, и если она не совпадает с первоначальной, то передача данного пакета повторяется. Так происходит до тех пор, пока исходная и конечная контрольные суммы не совпадут.

Коротко о главном

Любая техническая система передачи информации состоит из источника, приемника, устройств кодирования и декодирования и канала связи.

Под кодированием понимается преобразование информации, идущей от источника, в форму, пригодную для ее передачи по каналу связи. Декодирование - это обратное преобразование.

Шум - это помехи, приводящие к потере информации.

В теории кодирования разработаны методы представления передаваемой информации с целью уменьшения ее потерь под воздействием шума.

Вопросы и задания

1. Назовите основные элементы схемы передачи информации, предложенной К. Шенноном.
2. Что такое кодирование и декодирование при передаче информации?
3. Что такое шум? Каковы его последствия при передаче информации?
4. Какие существуют способы борьбы с шумом?

1.2. Архивирование и разархивирование файлов

Основные темы параграфа:

♦ проблема сжатия данных;
♦ алгоритм сжатия с использованием кода переменной длины;
♦ алгоритм сжатия с использованием коэффициента повторения;
♦ программы-архиваторы.

Проблема сжатия данных

Вы уже знаете, что с помощью глобальной сети Интернет пользователь получает доступ к огромным информационным ресурсам. В сети можно найти редкую книгу, реферат практически по любой теме, фотографии и музыку, компьютерную игру и многое другое. При передаче этих данных по сети могут возникнуть проблемы из-за их большого объема. Пропускная способность каналов связи еще достаточно ограничена. Поэтому время передачи может быть слишком большим, а это связано с дополнительными финансовыми расходами. Кроме того, для файлов большого размера может оказаться недостаточно свободного места на диске.

Решение проблемы заключается в сжатии данных, которое ведет к сокращению объема данных при сохранении закодированного в них содержания. Программы, осуществляющие такое сжатие, называются архиваторами. Первые архиваторы появились в середине 1980-х годов XX века. Главной целью их использования была экономия места на дисках, информационный объем которых в те времена был значительно меньше объема современных дисков.

Сжатие данных (архивирование файлов) происходит по специальным алгоритмам. В этих алгоритмах чаще всего используются две принципиально различающиеся идеи.

Алгоритм сжатия с использованием кода переменной длины

Первая идея: использование кода переменной длины. Данные, подвергающиеся сжатию, специальным образом делят на части (цепочки символов, «слова»). Заметим, что «словом» может быть и отдельный символ (код АSСII). Для каждого «слова» находится частота встречаемости: отношение количества повторений данного «слова» к общему числу «слов» в массиве данных. Идея алгоритма сжатия информации: кодировать наиболее часто встречающиеся «слова» кодами меньшей длины, чем редко встречающиеся «слова». При этом можно существенно сократить объем файла.

Такой подход известен давно. Он используется в азбуке Морзе, где символы кодируются различными последовательностями точек и тире, причем чаще встречающиеся символы имеют более короткие коды. Например, часто используемая буква «А» кодируется так: -. А редкая буква «Ж» кодируется: -. В отличие от кодов одинаковой длины, в этом случае возникает проблема отделения кодов букв друг от друга. В азбуке Морзе эта проблема решается с помощью «паузы» (пробела), которая, по сути, является третьим символом алфавита Морзе, то есть алфавит Морзе не двух-, а трех символьный.

Информация в памяти ЭВМ хранится с использованием двух символьного алфавита. Специального символа-разделителя нет. И все же удалось придумать способ сжатия данных с переменной длиной кода «слов», не требующий символа-разделителя. Такой алгоритм называется алгоритмом Д. Хаффмена (впервые опубликован в 1952 году). Все универсальные архиваторы работают по алгоритмам, подобным алгоритму Хаффмена.

Алгоритм сжатия с использованием коэффициента повторения

Вторая идея: использование коэффициента повторения. Смысл алгоритма, основанного на этой идее, заключается в следующем: если в сжимаемом массиве данных встречается цепочка из повторяющихся групп символов, то ее заменяют парой: число (коэффициент) повторений - группа символов. В этом случае для длинных повторяющихся цепочек выигрыш памяти при сжатии может быть очень большим. Данный метод наиболее эффективен при упаковке графической информации.

Программы-архиваторы

Программы-архиваторы создают архивные файлы (архивы). Архив представляет собой файл, в котором в сжатом виде хранятся один или несколько файлов. Для использования заархивированных файлов необходимо произвести их излечение из архива - разархивирование. Все программы -архиваторы обычно предоставляют следующие возможности:

Добавление файлов в архив;
извлечение файлов из архива;
удаление файлов из архива;
просмотр содержимого архива.

В настоящее время наиболее популярны архиваторы WinRar и WinZip. WinRar обладает более широкими возможностями по сравнению с WinZip. В частности, он дает возможность создания многотомного архива (это удобно, если архив необходимо скопировать на дискету, а его размер превышает 1,44 Мбайт), а также возможность создания самораспаковывающегося архива (в этом случае для извлечения данных из архива не нужен сам архиватор).

Приведем пример выгоды использования архиваторов при передаче данных по сети. Размер текстового документа, содержащего параграф, который вы сейчас читаете, - 31 Кб. Если этот документ заархивировать с помощью WinRar, то размер архивного файла составит всего 6 Кб. Как говорится, выгода налицо.

Пользоваться программами-архиваторами очень просто. Чтобы создать архив, нужно сначала выбрать файлы, которые необходимо в него включить, затем установить необходимые параметры (способ архивации, формат архива, размер тома, если архив многотомный), и, наконец, отдать команду СОЗДАТЬ АРХИВ. Похожим образом происходит обратное действие - извлечение файлов из архива (распаковка архива). Во-первых, нужно выбрать файлы, извлекаемые из архива, во-вторых, определить, куда должны быть помещены эти файлы, и, наконец, отдать команду ИЗВЛЕЧЬ ФАЙЛЫ ИЗ АРХИВА. Подробнее с работой программ-архиваторов вы познакомитесь на практических занятиях.

Коротко о главном

Сжатие информации производится с помощью специальных программ-архиваторов.

Чаще всего в алгоритмах сжатия используются два метода: использование кода переменной длины и использование коэффициента повторения группы символов.

Вопросы и задания

1. В чем различие кодов постоянной и переменной длины?
2. Какими возможностями обладают программы-архиваторы?
3. Какова причина широкого применения программ-архиваторов?
4. Знаете ли вы другие программы-архиваторы, кроме перечисленных в этом параграфе?

И. Семакин, Л. Залогова, С. Русаков, Л. Шестакова, Информатика, 9 класс
Отослано читателями из интернет-сайтов

Открытый урок информатики, школьный план , рефераты информатики , всё школьнику для выполнения домашнего задания, скачать информатику 9 класс

Содержание урока конспект урока опорный каркас презентация урока акселеративные методы интерактивные технологии Практика задачи и упражнения самопроверка практикумы, тренинги, кейсы, квесты домашние задания дискуссионные вопросы риторические вопросы от учеников Иллюстрации аудио-, видеоклипы и мультимедиа фотографии, картинки графики, таблицы, схемы юмор, анекдоты, приколы, комиксы притчи, поговорки, кроссворды, цитаты Дополнения рефераты статьи фишки для любознательных шпаргалки учебники основные и дополнительные словарь терминов прочие Совершенствование учебников и уроков исправление ошибок в учебнике обновление фрагмента в учебнике элементы новаторства на уроке замена устаревших знаний новыми Только для учителей идеальные уроки календарный план на год методические рекомендации программы обсуждения Интегрированные уроки

Если у вас есть исправления или предложения к данному уроку,