logo
Voprosy_na_ekzamen_po_informatike_2012_1

Информационная система

В информатике понятие "система" чаще используют относительно набора технических средств и программ. Системой называют также аппаратную часть компьютера. Дополнение понятия "система" словом "информационная" отображает цель ее создания и функционирования.

Информационная система - взаимосвязанная совокупность средств, методов и персонала, используемая для сохранения, обработки и выдачи информации с целью решения конкретной задачи.

Современное понимание информационной системы предусматривает использование компьютера как основного технического средства обработки информации. Компьютеры, оснащенные специализированными программными средствами, являются технической базой и инструментом информационной системы.

3вопрос Информационный процесс — процесс получения, создания, сбора, обработки, накопления, хранения, поиска, распространения и использования информации.[1]

В результате исполнения информационных процессов осуществляются информационные права и свободы, выполняются обязанности соответствующими структурами производить и вводить в обращение информацию, затрагивающую права и интересы граждан, а также решаются вопросы защиты личности, общества, государства от ложной информации и дезинформации, защиты информации и информационных ресурсов ограниченного доступа от несанкционированного доступа.[2]

С точки зрения информационного права, при выполнении информационных процессов возникают общественные отношения, подлежащие правовому регулированию в информационной сфере.

Обработка данных включает в себя множество разных операций. Основными операциями есть:

Система счисле́ния — символический метод записи чисел, представление чисел с помощью письменных знаков.

Система счисления:

Системы счисления подразделяются на позиционныенепозиционные и смешанные.

система счисления(далее СС) - совокупность приемов и правил для записи чисел цифровыми знаками. Наиболее известна десятичная СС, в которой для записи чисел используются цифры 0,1,:,9. Способов записи чисел цифровыми знаками существует бесчисленное множество. Любая предназначенная для практического применения СС должна обеспечивать:

В зависимости от способов изображения чисел цифрами, системы счисления делятся на непозиционные и позиционные. Непозиционной системой называется такая, в которой количественное значение каждой цифры не зависит от занимаемой ей позиции в изображении числа (римская система счисления). Позиционной системой счисления называется такая, в которой количественное значение каждой цифры зависит от её позиции в числе (арабская система счисления). Количество знаков или символов, используемых для изображения числа, называется основанием системы счисления. Позиционные системы счисления имеют ряд преимуществ перед непозиционными: удобство выполнения арифметических и логических операций, а также представление больших чисел, поэтому в цифровой технике применяются позиционные системы счисления

Единицы представления, измерения и хранения данных.

Наименьшая единица представления информации – бит

Бит - бинери(2-ое число)

Байт – группа из 8 бит (Биты могут быть выкл. и вкл., важно не только количество бит,  но и  их расположение.Бит находящийся в крайней правой позиции – младший, в крайней левой – старший. )

Байт может содержать 256 различных комбинаций битов и соответственно с помощью байта можно выразить 256 различных значений

Байт – наименьшая единица обработки и передачи информации.

Байты информации записывают в виде файлов Файл – наименьшая единица хранения информации

Более крупными единицами являются следующие:

1кб = 2(10) байт = 1024 байт 1мб = 2(10)кб = 104857 байт 1Гб = 2(10)Мб  1Тб = 2(10)Гб 1P = 2(10) Тб 1Е = 2(10)Р

Для измерения информации вводят 2-а параметра:

V данных - колличество символов и разрядов в сообщении

Количество информации -  определяется изменением неопределенности, состоянием системы.

Если источник информации может находиться в одном из  дискретныз состояний с вероятностью Pi(итое)где каждое i меняется от 1 до , то в качестве меры неопределённости можно ввести функцию H, называющуюся n-тропией. Будем называть каждое возможное состояние источника информации сообщением.n-тропиея i-го сообщения.

n Pi(i=1,n) H

Hi = log2(2-основание)(1/Pi)= - log2 Pi

Логорифм по основанию 2 берётся исключительно для удобства, чтобы энтропия любого из 2-х равно вероятных событий ( т.е. когда P1P2P3) в сумме равнялась единице. Энтропия достоверного события равнялась 0 а невероятного события 1