17. Язык, объекты, субъекты. Аксиома
Аксиома. Все вопросы безопасности информации описываются доступами субъектов к объектам.
Если включить в рассмотрение гипотетически такие процессы как пожар, наводнение, физическое уничтожение и изъятие, то эта аксиома охватывает практически все известные способы нарушения безопасности в самых различных вариантах понимания безопасности. Тогда для дальнейшего рассмотрения вопросов безопасности и защиты информации достаточно рассматривать множество объектов и последовательности доступов.
Пусть время дискретно, Оt - множество объектов момент t, St - множество субъектов в момент t. На множестве объектов Оt как на вершинах определим ориентированный граф доступов Gt следующим образом: дуга с меткой pR принадлежит Gt тогда и только тогда, когда в момент t субъект S имеет множество доступов р к объекту О.
Согласно аксиоме, с точки зрения защиты информации, в процессе функционирования системы нас интересует только множество графов доступов {Gt}t=1T. Обозначим через ={G} множество возможных графов доступов. Тогда можно рассматривать как фазовое пространство системы, а траектория в фазовом пространстве соответствует функционированию вычислительной системы. В этих терминах удобно представлять себе задачу защиты информации в следующем общем виде. В фазовом пространстве определены возможные траектории Ф, в выделено некоторое подмножество N неблагоприятных траекторий или участков таких траекторий, которых мы хотели бы избежать. Задача защиты информации состоит в том, чтобы любая реальная траектория вычислительного процесса в фазовом пространстве не попала во множество N. Как правило, в любой конкретной вычислительной системе можно наделить реальным смыслом компоненты модели , и N. Например, неблагоприятными могут быть траектории, проходящие через данное множество состояний ‘.
Чем может управлять служба защиты информации, чтобы траектории вычислительного процесса не вышли в N? Практически такое управление возможно только ограничением на доступ в каждый момент времени. Разумеется, эти ограничения могут зависеть от всей предыстории процесса. Однако, в любом случае, службе защиты доступно только локальное воздействие. Основная сложность защиты информации состоит в том, что имея возможность использовать набор локальных ограничений на доступ в каждый момент времени, мы должны решить глобальную проблему недопущения выхода любой возможной траектории в неблагоприятное множество N. При этом траектории множества N не обязательно определяются ограничениями на доступы конкретных субъектов к конкретным объектам. Возможно, что если в различные моменты вычислительного процесса субъект S получил доступ к объектам О1 и О2, то запрещенный доступ к объекту О3 реально произошел, так как из знания содержания объектов О1 и O2 можно вывести запрещенную информацию, содержащуюся в объекте O3.
Пример 4. Пусть в системе имеются два пользователя U1, и U2, один процесс S чтения на экран файла и набор файлов O1...Om. В каждый момент работает один пользователь, потом система выключается и другой пользователь включает ее заново. Возможны следующие графы доступов
R r
Uj------->S-------------Oi , i=l ,..., m, j=l , 2. (1)
Множество таких графов - . Траектории - последовательности графов вида (1). Неблагоприятными считаются траектории, содержащие для некоторого i= 1...m состояния
R r
U1------------>S------->Oi
R r
U2------------>S------->Oi
То есть неблагоприятная ситуация, когда оба пользователя могут прочитать один объект. Ясно, что механизм защиты должен строить ограничения на очередной доступ, исходя из множества объектов, с которыми уже ознакомился другой пользователь. В этом случае, очевидно, можно доказать, что обеспечивается безопасность информации в указанном смысле.
Пример 5. В системе, описанной в примере 4, пусть неблагоприятной является любая траектория, содержащая граф вида
R r
U1------------>S------->O1
В этом случае очевидно доказывается, что система будет защищена ограничением доступа на чтение пользователя U1 к объекту О1
- 2. Системообразующие основы моделирования. Модель действия.
- 3. Системообразующие основы моделирования. Модель объекта.
- 4. Системообразующие основы моделирования. Эффективность применения эвм.
- 5.Анализ и синтез при создании эвм. Концепция синтеза. Структура множества q.
- Концепция синтеза
- Модель Системы ↔ Условие замыкания ↔ Модель Действия
- 6. Принцип системности. Задача а.
- 7. Принцип системности. Задача б.
- 8. Принцип системности. Задача в.
- 9. Принцип системности. Задача г.
- 10.Теория подобия при синтезе модели эвм
- 11.Синтез модели и способов её применения, осложненный конфликтной ситуацией.
- 12.Структурная схема взаимодействия трёх базовых подсистем при разрешении конфликта.
- 13. Алгоритм логической последовательности выполнения команд пс в условиях разрушения множества q
- 14. Компенсация разрушения программной системы изменением аппаратной части
- 15. Компенсация разрушения аппаратной части изменением программной системы
- 16. Язык, объекты, субъекты. Основные понятия.
- 17. Язык, объекты, субъекты. Аксиома
- 18. Иерархические модели и модель взаимодействия открытых систем .
- Модель osi/iso.
- 19. Модель osi/iso.Прикладной уровень (пУ).
- 20. Модель osi/iso.Уровень представления (уп).
- 21. Модель osi/iso.Уровень сеанса (ус).
- 22. Модель osi/iso.Транспортный уровень (ту).
- 23. Модель osi/iso.Сетевой уровень (су).
- 24. Модель osi/iso.Канальный уровень.
- 25. Модель osi/iso.Физический уровень.
- 26. Информационный поток. Основные понятия.
- 27. Информационные потоки в вычислительных системах.
- 28. Ценность информации. Аддитивная модель.
- 29. Ценность информации. Анализ риска.
- 30. Ценность информации. Порядковая шкала ценностей.
- 31. Ценность информации. Модель решетки ценностей.
- 32. Ценность информации. Решетка подмножеств х.
- 33. Ценность информации. Mls решетка
- 64. Угрозы информации
- 65. Угрозы секретности. Утрата контроля над системой защиты; каналы утечки информации.
- 66. Угрозы целостности
- 67. Политика безопасности. Определение политики безопасности
- 68. Дискреционная политика.
- 69. Политика mls.
- 70. Классификация систем защиты. Доказательный подход к системам защиты .
- 71. Классификация систем защиты. Системы гарантированной защиты.
- 72. Классификация систем защиты. Пример гарантированно защищенной системы обработки информации. Записывает во внешнюю память все объекты, которые он хочет сохранить для дальнейших сеансов;
- 74. Два типа оценки: без учета среды, в которой работает техника, в конкретной среде (эта процедура называется аттестованием).
- 75. Политика.Требование 1. Требование 2 - маркировка
- 76. Подотчетность. Требование 3 – идентификация. Требование 4 - подотчетность
- 77. Гарантии. Требование 5 – гарантии. Требование 6 - постоянная защита
- 78. Итоговая информация по классам критериев оценки; идентификация и аутентификация гарантии на правильную работу системы
- Политика обеспечения безопасности.
- Идентификация и аутентификация.
- 79. Архитектура системы; целостность системы гарантии на жизненный цикл тестирование функции безопасности. Документация. Выбор класса защиты.
- 4.4. Выбор класса защиты.
- 80. Математические методы анализа политики безопасности. Модель "take-grant"
- 81. Математические методы анализа политики безопасности. Модель Белла - Лападула (б-л).
- 82. Математические методы анализа политики безопасности. Модель Low-water-mark (Lwm).
- 83. Математические методы анализа политики безопасности. Модели j.Goguen, j.Meseguer (g-m).
- 84. Математические методы анализа политики безопасности.Модель выявления нарушения безопасности.
- 85. Синтез и декомпозиция защиты в распределенных системах.
- 86. Анализ компонент распределенной системы.
- 87. Проблема построения гарантированно защищенных баз данных. Иерархический метод построения защиты .
- 9.1. Иерархический метод построения защиты .
- 88. Математические методы анализа политики безопасности. Гарантированно защищенные базы данных.