27. Информационные потоки в вычислительных системах.
Рассмотрим дальнейшие примеры информационных потоков в вычислительных системах.
1. Рассмотрим операцию присвоения значения переменных
Y:=X.
Пусть X - целочисленная случайная величина со значениями [0,15] и Р(x) - равновероятная мера на значениях X. Тогда Н(Х)=4 бит. После выполнения операции присвоения по полученной в состоянии s‘ величине Y однозначно восстанавливается X, следовательно H(X/Y)=0 I(X, Y)=4C(, X, Y)=4, т.к. рассмотренный канал - симметричный.
2. Y:=X
Z:=Y.
Выполнение этих команд вызывает непрямой (косвенный) поток информации Х-->Z, такой же величины как прямой поток Х-->Y.
3. Z:=X + Y.
Предполагаем, что X, Y [0,15] и равновероятны. Тогда Н(Х)=4, H(Y)=4.
0 < H(X/Z) = Р(х, z) logP(x/z)< 4,
(xz)
следовательно, 0 < I(Х, Z) < 4 бит.
4. Пусть X1, X2,..., Хn - независимые одинаково распределенные равновероятные случайные величины со значениями 0 и 1.
n
Z=Xi , Н(Х1) = 1,
i=1
n-1 n
H(X1/Z)=-Р(Х1=0,Z=k)logP(X=0/Z=k)- Р(Х1=1, Z=k) logP(X=l /Z=k)
k=o k=1
Если n->, то H(X1/Z) = Н(Х1)(1 + O(1)), откуда следует, что I(X1/Z)=O(l).
Отсюда возникает возможность прятать конфиденциальные данные в статистические данные.
5. Z:=XY, X и Y - равновероятные булевы случайные величины, - сложение по mod 2, тогда Z не несет информации о X или Y.
6. If X=l then Y=l. Х{0,1}, где величина X принимает свои значения с вероятностями Р(Х=0)=Р(Х==1)=1/2, начальное значение Y=0, Н(Х)=1.
H(X/Y)= Р(х, у) logP(x/y)=0.
(x,y)
Следовательно, I(Х, Y) = 1. Поток называется неявным, в отличие от явного при операции присвоения.
7. If(Х=1) и (Y=l) then Z:=l.
H(X)=H(Y)=l, Z=l => X=l=Y
X=0 c P=2/3 }
Z = 0 => } апостериорные вероятности
X=1 c P=1/3 }
Отсюда Hz(X)O,7. Поэтому количество информации о X в Z равно
I(Z, Х) 0,3.
Если X1, Х2,...,Хn - исходные (ценные) переменные системы (программы), а Y=(Y1,...,Ym) - выходные, то I(Xi,Y) - количество информации о Хi, в потоке, который индуцируется системой. Тогда отношение I(Xi,Y)/Н(Х1) - показатель "утечки" информации о X1. Если установить порог > О для "утечки", то из условия при каждом i=l.....n,
I(Xi,Y)/Н(Хi)<,
следуют требования к защите Y.
- 2. Системообразующие основы моделирования. Модель действия.
- 3. Системообразующие основы моделирования. Модель объекта.
- 4. Системообразующие основы моделирования. Эффективность применения эвм.
- 5.Анализ и синтез при создании эвм. Концепция синтеза. Структура множества q.
- Концепция синтеза
- Модель Системы ↔ Условие замыкания ↔ Модель Действия
- 6. Принцип системности. Задача а.
- 7. Принцип системности. Задача б.
- 8. Принцип системности. Задача в.
- 9. Принцип системности. Задача г.
- 10.Теория подобия при синтезе модели эвм
- 11.Синтез модели и способов её применения, осложненный конфликтной ситуацией.
- 12.Структурная схема взаимодействия трёх базовых подсистем при разрешении конфликта.
- 13. Алгоритм логической последовательности выполнения команд пс в условиях разрушения множества q
- 14. Компенсация разрушения программной системы изменением аппаратной части
- 15. Компенсация разрушения аппаратной части изменением программной системы
- 16. Язык, объекты, субъекты. Основные понятия.
- 17. Язык, объекты, субъекты. Аксиома
- 18. Иерархические модели и модель взаимодействия открытых систем .
- Модель osi/iso.
- 19. Модель osi/iso.Прикладной уровень (пУ).
- 20. Модель osi/iso.Уровень представления (уп).
- 21. Модель osi/iso.Уровень сеанса (ус).
- 22. Модель osi/iso.Транспортный уровень (ту).
- 23. Модель osi/iso.Сетевой уровень (су).
- 24. Модель osi/iso.Канальный уровень.
- 25. Модель osi/iso.Физический уровень.
- 26. Информационный поток. Основные понятия.
- 27. Информационные потоки в вычислительных системах.
- 28. Ценность информации. Аддитивная модель.
- 29. Ценность информации. Анализ риска.
- 30. Ценность информации. Порядковая шкала ценностей.
- 31. Ценность информации. Модель решетки ценностей.
- 32. Ценность информации. Решетка подмножеств х.
- 33. Ценность информации. Mls решетка
- 64. Угрозы информации
- 65. Угрозы секретности. Утрата контроля над системой защиты; каналы утечки информации.
- 66. Угрозы целостности
- 67. Политика безопасности. Определение политики безопасности
- 68. Дискреционная политика.
- 69. Политика mls.
- 70. Классификация систем защиты. Доказательный подход к системам защиты .
- 71. Классификация систем защиты. Системы гарантированной защиты.
- 72. Классификация систем защиты. Пример гарантированно защищенной системы обработки информации. Записывает во внешнюю память все объекты, которые он хочет сохранить для дальнейших сеансов;
- 74. Два типа оценки: без учета среды, в которой работает техника, в конкретной среде (эта процедура называется аттестованием).
- 75. Политика.Требование 1. Требование 2 - маркировка
- 76. Подотчетность. Требование 3 – идентификация. Требование 4 - подотчетность
- 77. Гарантии. Требование 5 – гарантии. Требование 6 - постоянная защита
- 78. Итоговая информация по классам критериев оценки; идентификация и аутентификация гарантии на правильную работу системы
- Политика обеспечения безопасности.
- Идентификация и аутентификация.
- 79. Архитектура системы; целостность системы гарантии на жизненный цикл тестирование функции безопасности. Документация. Выбор класса защиты.
- 4.4. Выбор класса защиты.
- 80. Математические методы анализа политики безопасности. Модель "take-grant"
- 81. Математические методы анализа политики безопасности. Модель Белла - Лападула (б-л).
- 82. Математические методы анализа политики безопасности. Модель Low-water-mark (Lwm).
- 83. Математические методы анализа политики безопасности. Модели j.Goguen, j.Meseguer (g-m).
- 84. Математические методы анализа политики безопасности.Модель выявления нарушения безопасности.
- 85. Синтез и декомпозиция защиты в распределенных системах.
- 86. Анализ компонент распределенной системы.
- 87. Проблема построения гарантированно защищенных баз данных. Иерархический метод построения защиты .
- 9.1. Иерархический метод построения защиты .
- 88. Математические методы анализа политики безопасности. Гарантированно защищенные базы данных.