1.2 Скорость роста функций
Анализируя алгоритм можно стараться найти точное количество выполняемых им действий. Но в большинстве случаев достаточно оценить асимптотику роста времени работы алгоритма (это делается на основе точной оценки) при стремлении размера входа к бесконечности (asymptotic efficiency). Если у одного алгоритма асимптотика роста меньше, чем у другого, то в большинстве случаев он будет эффективнее для всех входов, кроме, может быть, совсем коротких.
Сравнивая некоторую функцию ƒ с некоторым множеством функций, все алгоритмы можно сгруппировать по скорости роста. Существуют три категории:
Класс функций, растущих, по крайней мере, так же быстро, как ƒ, обозначается через Ω(ƒ) (читается как «омега большое»). Можно считать, что класс Ω(ƒ) задается указанием свой нижней границы: все функции из него растут, по крайней мере, так же быстро, как ƒ;
Класс функций, растущих не быстрее ƒ, обозначается O. Функция ƒ образует верхнюю границу для класса O(f) (читается как «о большое»);
Класс функций, растущих с той же скоростью, что и ƒ, обозначается () (читается как «тэта большое»). С формальной точки зрения этот класс представляет собой пересечение двух предыдущих классов.
Пусть время T(n) работы алгоритма на входах длины n есть (n2). Тогда найдутся такие константы c1,c2 > 0 и такое число n0, что с1n2 ≤ T(n) ≤ с2n2 при всех n ≥ n0. Проще говоря, начиная с некоторого размера входа n0, функциональная зависимость T(n) может быть описана посредством n2 с точностью до константы, при этом «вилка» или диапазон возможных значений константы, способной обеспечить полное соответствие описания оригиналу, задается при помощи c1 и c2. Вообще, если g(n) – некоторая функция, то запись f(n) = (g(n)) означает, что найдутся такие c1,c2 > 0 и такое n0, что 0 ≤ с1g(n) ≤ f(n) ≤ c2g(n) для всех n ≥ n0. Запись f(n) = (g(n)) читается так: «эф от эн есть тэта от же от эн».
Следует также упомянуть, что если f1(n) = (g(n)) и f2(n) = (g(n)), то отсюда не следует f1(n) = f2(n)!
Определение (g(n)) предполагает, что функции f(n) и g(n) асимптотически неотрицательны (asymptotically nonnegative), т.е. неотрицательны для достаточно больших значений n. Если функции f и g строго положительны, то можно исключить n0 из определения (изменив константы c1 и c2 так, чтобы для малых n неравенство также выполнялось).
Если f(n) = (g(n)) то говорят, что g(n) является асимптотически точной оценкой (asymptotically tight bound) для f(n). На самом деле это отношение симметрично: из f(n) = (g(n)) следует g(n) = (f(n)).
Рисунок 1.1 – Иллюстрации к определениям f(n) = (g(n)), f(n) = O(g(n)) и f(n) = (g(n))
Запись f(n) = (g(n)) включает в себя две оценки: верхнюю и нижнюю. Их можно разделить. Говорят, что f(n) = O(g(n)), если найдется такая константа c > 0 и такое число n0, что 0 ≤ f(n) ≤ cg(n) для всех n ≥ n0. Говорят, что f(n) = (g(n)), если найдется такая константа c > 0 и такое число n0, что 0 ≤ cg(n) ≤ f(n) для всех n ≥ n0. Эти записи читаются так: «эф от эн есть о большое от же от эн», «эф от эн есть есть омега большая от же от эн».
- Министерство образования Российской Федерации
- Содержание
- 1.2 Скорость роста функций
- 1.3 Анализ алгоритмов; время работы в лучшем, худшем случаях и в среднем
- 1.4 Типы данных, структуры данных и абстрактные типы данных
- 1.5 Динамические множества
- 2 Алгоритмы сортировок
- 2.1 Понятие внутренней и внешней сортировки
- 2.2 Сортировка вставками
- 2.3 Сортировка слиянием
- 2.3.1 Описание алгоритма
- 2.3.2 Анализ времени работы алгоритмов «разделяй и властвуй»
- 2.3.2 Анализ времени работы сортировки слиянием через рекуррентное соотношение
- 2.3.3 Анализ времени работы сортировки слиянием через геометрическую интерпретацию
- 2.4 Пирамидальная сортировка
- 2.4.1 Введение в алгоритм
- 2.4.2 Сохранение основного свойства кучи
- 2.4.3 Построение кучи
- 2.5 Быстрая сортировка
- 2.5.1 Введение в алгоритм
- 2.5.2 Описание
- 2.5.3 Разбиение массива
- 2.5.4 Особенности работы быстрой сортировки
- 2.6 Особенности реализации алгоритмов сортировки; сортировка за линейное время
- 2.6.1 Введение
- 2.6.2 Разрешающее дерево сортировки сравнениями
- 2.7 Цифровая сортировка
- 2.8 Сортировка вычерпыванием
- 2.8.1 Описание алгоритма
- 2.8.2 Вероятностный анализ времени работы сортировки вычерпыванием
- 2.8.3 Анализ времени работы сортировки вычерпыванием через геометрическую интерпретацию
- 2.9 Сортировка подсчетом
- 2.9.1 Описание алгоритма
- 2.9.2 Анализ времени работы
- 3 Элементарные и нелинейные структуры данных
- 3.1 Элементарные структуры: список, стек, очередь, дек
- 3.1.1 Список Линейный однонаправленный список
- Линейный двунаправленный список
- Двунаправленный список с фиктивными элементами
- Циклические списки
- Циклический однонаправленный список
- Циклический двунаправленный список
- 3.1.2 Стек
- 3.1.3 Очередь
- 3.1.3 Дек
- 3.2 Нелинейные структуры данных
- 3.2.1 Представление корневых деревьев в эвм
- Обходы деревьев
- 3.2.2 Двоичные деревья Спецификация двоичных деревьев
- Реализация
- Обходы двоичных деревьев
- 3.2.3 Двоичные деревья поиска Основные операции
- Минимум и максимум
- Следующий и предыдущий элементы
- Добавление и удаление
- Случайные деревья поиска
- Оптимальные деревья поиска
- 4 Хеширование
- 4.1 Введение
- 4.2 Прямая адресация; таблицы с прямой адресацией
- 4.3 Хеш – таблицы; возникновение коллизий и их разрешение
- Разрешение коллизий с помощью цепочек
- Анализ хеширования с цепочками
- 4.4 Способы построения хеш – функций Выбор хорошей хеш-функции
- Ключи как натуральные числа
- Деление с остатком
- Умножение
- Универсальное хеширование
- 4.5 Открытая адресация; способы вычисления последовательности испробованных мест: линейная последовательность проб, квадратичная последовательность проб, двойное хеширование
- Линейная последовательность проб
- 1 / (1 – )
- 5 Основные принципы разработки алгоритмов
- 5.1 Введение в теорию графов
- 5.1.1 Графы
- 5.1.2 Представление графов
- 5.2 Алгоритмы на графах: поиск в ширину, поиск в глубину
- 5.2.1 Поиск в ширину (волновой алгоритм)
- 5.2.2 Анализ поиска в ширину
- 5.2.3 Деревья поиска в ширину
- 5.2.4 Поиск в глубину
- 5.2.5 Анализ поиска в глубину
- 5.2.6 Свойства поиска в глубину
- 5.2.7 Классификация рёбер
- 5.3 Топологическая сортировка, задача о разбиении графа на сильно связанные компоненты
- 5.3.1 Топологическая сортировка
- 5.3.2 Сильно связные компоненты
- 5.4 Алгоритм построения минимального остовного дерева
- 5.4.1 Остовные деревья минимальной стоимости
- 5.4.2 Построение минимального покрывающего дерева
- 5.4.3 Алгоритмы Крускала и Пpимa
- 5.4.4 Алгоритм Крускала
- 5.4.5 Алгоритм Прима
- 5.5 Задача нахождения кратчайших путей на графах; алгоритм Флойда; алгоритм Дейкстры
- 5.5.1 Нахождение кратчайшего пути
- 5.5.2 Алгоритм Дейкстры
- 5.5.3 Алгоритм Флойда
- 5.6 Поиск с возвратом
- 5.6.1 Введение
- 5.6.2 Переборные алгоритмы
- 5.6.3 Метод ветвей и границ
- 5.6.4 Метод альфа-бета отсечения
- 5.6.5 Локальные и глобальные оптимальные решения
- 5.7 Метод декомпозиции ( «Разделяй и властвуй»)
- 5.7.1 «Ханойские башни»
- 5.8 Жадные алгоритмы и динамическое программирование
- 5.8.1 Задача о выборе заявок
- 5.8.2 Дискретная задача о рюкзаке
- 5.8.3 Непрерывная задача о рюкзаке
- 5.8.4 Числа Фибоначчи
- 5.8.5 Задача триангуляции многоугольника
- 5.8.6 Дп, жадный алгоритм или что-то другое?