Какая информация бывает по форме предоставления

Обновлено: 04.07.2024

Задачи, связанные с хранением, передачей и обработкой информации, человеку приходилось решать во все времена: требовалось передавать знания из поколения в поколения, искать нужные книги в хранилищах, шифровать секретную переписку. К концу XIX века количество документов в библиотеках стало настолько велико, что возникла необходимость применить научный подход к задачам хранения и поиска накопленной информации. В это время зародилось новое научное направление, в котором изучалась документальная информация, т. е. информация в виде документов (книг, журналов, статей и т. п.). В английском языке оно получило название information science (информационная наука, наука об информации).

Современная информатика, которая стала самостоятельной наукой в 70-х годах XX века, изучает теорию и практику обработки информации с помощью компьютерных систем. Обычно к информатике относят следующие научные направления:

• теоретическую информатику (теорию информации, теорию кодирования, математическую логику, теорию автоматов и др.);

• вычислительную технику (устройство компьютеров и компьютерных сетей);

• алгоритмизацию и программирование (создание алгоритмов и программ);

• прикладную информатику (персональные компьютеры, прикладные программы, информационные системы и т. д.);

• искусственный интеллект (распознавание образов, понимание речи, машинный перевод, логические выводы, алгоритмы самообучения)

Что такое информация?

Попробуем посмотреть на информацию с разных сторон и попытаться выявить некоторые её свойства.

Информация характеризует разнообразие (неоднородность) в окружающем мире.

Зачем вообще нам нужна информация? Дело в том, что наше знание всегда в чём-то неполно, в нём есть неопределенность. Например, вы стоите на остановке и не знаете, на каком именно автобусе вам нужно ехать в гости к другу (его адрес известен). Неопределённость мешает вам решить свою задачу. Нужный номер автобуса можно определить, например, по карте с маршрутами транспорта. Очевидно, что при этом вы получите новую информацию, которая увеличит знание и уменьшит неопределённость.

При получении информации уменьшается неопределённость знания.

Как получают информацию

Человек получает информацию через свои органы чувств: глаза, уши, рот, нос и кожу. Поэтому получаемую нами информацию можно разделить на следующие виды:

• зрительная информация (визуальная, от англ, visual) — поступает через глаза (по разным оценкам, это 80-90% всей получаемой нами информации);

• звуковая информация (аудиальная, от англ, audio) — поступает через уши;

• вкусовая информация — поступает через язык;

• обонятельная информация (запахи) — поступает через нос;

Формы представления информации

Информация может быть представлена (зафиксирована, закодирована) в различных формах:

• текстовая информация — последовательность символов (букв, цифр, других знаков); в тексте важен порядок их расположения, например КОТ и ТОК — два разных текста, хотя они состоят из одинаковых символов;

• графическая информация (рисунки, картины, чертежи, карты, схемы, фотографии и т. п.);

• звуковая информация (звучание голоса, мелодии, шум, стук, шорох и т. п.);

• мультимедийная информация, которая объединяет несколько форм представления информации (например, видеоинформация).

Обратим внимание, что одна и та же информация может быть представлена по-разному. Например, результаты измерения температуры в течение недели можно сохранить в виде текста, чисел, таблицы, графика, диаграммы, видеофильма и т.д.

В научной литературе информацию, зафиксированную (закодированную) в какой-то форме, называют данными, имея в виду, что компьютер может выполнять с ними какие-то операции, но не способен понимать смысл.

Свойства информации

В идеале информация должна быть:

• объективной (не зависящей от чьего-либо мнения);

• понятной для получателя;

• полезной (позволяющей получателю решать свои задачи);

• достоверной (полученной из надёжного источника);

• актуальной (значимой в данный момент);

• полной (достаточной для принятия решения).

Конечно, информация не всегда обладает всеми этими свойствами.

Материальный носитель — это объект или среда, которые могут содержать информацию.

Изменения, происходящие с информацией (т. е. изменения свойств носителя), называются информационными процессами. Все эти процессы можно свести к двум основным:

• передача информации (данные передаются с одного носителя на другой);

• обработка информации (данные изменяются).

Передача информации

При передаче информации всегда есть два объекта — источник и приёмник информации. Эти роли могут меняться, например во время диалога каждый из участников выступает то в роли источника, то в роли приёмника информации.

Информация проходит от источника к приёмнику через канал связи, в котором она должна быть связана с каким-то материальным носителем . Для передачи информации свойства этого носителя должны изменяться со временем. Например, если включать и выключать лампочку, то можно передавать разную информацию, например, с помощью азбуки Морзе.



Сигнал — это изменение свойств носителя, которое используется для передачи информации.

Скорость передачи данных — это количество битов (байтов, Кбайт и т. д.), которое передаётся по каналу связи за единицу времени (например, за 1 с).

Пропускная способность любого реального канала связи ограничена. Это значит, что есть некоторая наибольшая возможная скорость передачи данных, которую принципиально невозможно превысить.

Основная единица измерения скорости — биты в секунду (бит/с, англ, bps — bits per second). Для характеристики быстродействующих каналов применяют килобиты в секунду (Кбит/с) и мегабиты в секунду (Мбит/с), иногда используют байты в секунду (байт/с) и килобайты в секунду (Кбайт/с).

Информационный объём I данных, переданных по каналу за время t, вычисляется по формуле I = v • t, где и — скорость передачи данных. Например, если скорость передачи данных равна 512 000 бит/с, за 1 минуту можно передать файл объёмом

512 000 бит/с * 60 с = 30 720 000 битов = 3 840 000 байтов = 3075 Кбайт.

Обработка информации

Обработка — это изменение информации: её формы или содержания. Среди важнейших видов обработки можно назвать:

• создание новой информации, например решение задачи с помощью вычислений или логических рассуждений;

• кодирование — запись информации с помощью некоторой системы знаков для передачи и хранения; один из вариантов кодирования — шифрование, цель которого — скрыть смысл (содержание) информации от посторонних;

• поиск информации, например, в книге, в библиотечном каталоге, на схеме или в Интернете;

• сортировка — расстановка элементов списка в заданном порядке, например расстановка чисел по возрастанию или убыванию, расстановка слов по алфавиту; задача сортировки — облегчить поиск и анализ информации.

Хранение информации

Для хранения информации человек, прежде всего, использует свою память. Можно считать, что мозг — это одно из самых совершенных хранилищ информации, во многом превосходящее компьютерные средства.

При записи информации свойства носителя меняются: на бумагу наносятся текст и рисунки; на магнитных дисках и лентах намагничиваются отдельные участки; на оптических дисках образуются области, по-разному отражающие свет. При хранении эти свойства остаются неизменными, что позволяет потом читать (получать) записанную информацию.

Отметим, что процессы записи и чтения — это процессы передачи информации.

Что такое бит?

Бит — это количество информации, которую можно записать (закодировать) с помощью одной двоичной цифры.



А если возможных вариантов не два, а больше? Понятно, что в этом случае количество информации будет больше, чем 1 бит. Представим себе, что на вокзале стоят 4 одинаковых поезда , причём только один из них проследует в Москву. Сколько битов понадобится для того, чтобы записать информацию о номере платформы, где стоит поезд на Москву?

I, битов 1 2 3 4 5 6 7 8 9 10

N, вариантов 2 4 8 16 32 64 128 256 512 102

Наверно, вы заметили, что все числа в нижней строчке таблицы — это степени числа 2: N = 2 I .

Осталось выяснить, чему равно количество информации, если выбор делается, скажем, из 5 возможных вариантов (или из любого количества, не являющегося степенью числа 2). С точки зрения приведённого выше рассуждения случаи выбора из 5, 6, 7 и 8 вариантов не различаются — для кодирования двух двоичных цифр мало, а трёх — достаточно. Поэтому использование трёх битов для кодирования одного из 5 возможных вариантов избыточно, ведь три бита позволяют закодировать целых 8 вариантов! Значит, выбор из 5 вариантов даёт меньше трёх битов информации.

Чтобы количественно измерить разницу между, скажем, 5 и 8 вариантами, придется допустить, что количество информации в битах может быть дробным числом. При этом информация, полученная при выборе из 5 вариантов, больше, чем 2 бита, но меньше, чем 3 бита. Точную формулу для ее вычисления получил в 1928 г. американский инженер Ральф Хартли. Эта формула использует понятие логарифма :I=log2N.

Другие единицы

Считать большие объёмы информации в битах неудобно хотя бы потому, что придётся работать с очень большими числами (миллиардами, триллионами и т. д.). Поэтому стоит ввести более крупные единицы.

1 байт = 8 битов.

Читайте также: