logo
Ответы на экзамен по информатики

Информатика в системе наук. История развития информатики как науки. Информация: определение, измерение информации.

История возникновения информатики

Информатика возникла из кибернетики, впитав из неё понятие информации, идеи автоматического управления и коммуникации.

В 40-50-е гг. ХХ в. идёт процесс становления компьютеров и другой информационной техники.

Термин "информатика" происходит от французских слов, что дословно означает "информационная автоматика". Понятие «Информатика» стало международным с середины 70-х гг.

1983 г. - в России утверждён термин «информатика» на сессии годичного собрания Академии наук СССР, где рассматривался вопрос организации нового отделения информатики, ВТ и автоматизации.

Информация — это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

Измерение информации

Подходы к определению количества информации.   Формулы Хартли и Шеннона.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Формула Хартли:  I = log2N

Американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN), где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

В качестве единицы информации Клод Шеннон предложил принять  один  бит. 

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений   (типа "орел"—"решка", "чет"—"нечет" и т.п.).

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

1 бит = 8 байт

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт,

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.