3. Контрастирование нейронов
Описаные [1-3]процедуры вычисления показателей значимости входных сигналов сети и ее настраиваемых параметров позволяют удалять только наименее значимые входы и настраиваемые параметры (синапсы) нейронной сети. Однако нам может потребоваться и упрощение сети путем удаления у нее целого нейрона. Контрастирование отдельных нейронов сети выполняется при сокращении числа нейронов в слоях сети – ранее был введен такой критерий логической прозрачности.
Удаление у сети малозначимых входов и синапсов может привести к удалению у сети нейрона. Действительно, если у нейрона нет ни одного входного сигнала и удален неоднородный вход, то такой нейрон можно исключить из сети (поскольку он не влияет на выходной сигнал сети), удалив как этот нейрон, так и синапсы нейронов следующего слоя, принимающих сигнал от данного. И обратно, если отконтрастированы все синапсы, по которым нейрон рассылал свой выходной сигнал, то можно удалить этот нейрон со всеми его входными синапсами и неоднородным входом.
Этот пример иллюстрирует важность наличия не только процедуры упрощения, но и процедуры логического анализа структуры сети для упрощения сети. Удаляя элементы, не оказывающие влияния на выходной сигнал сети, процедура логического анализа структуры сети ускоряет процесс упрощения. Однако такое контрастирование нейронов является некоторым дополнительным результатом при контрастировании синапсов, но не самостоятельной процедурой.
Поэтому не будем уклоняться от поставленного в начале главы вопроса и введем процедуры определения значимости нейронов сети.Дальнейшее изложение предполагает знакомство читателя с алгоритмом двойственного функционирования и процедурами вычисления показателей значимости входных сигналов и синапсов сети[1-3,8]
Вспомним, что при двойственном функционировании сети мы можем получить градиент функции оценки не только по входным сигналам сети и ее настраиваемым параметрам, но и по всем промежуточным сигналам сети, т.е. сигналам, поступающим с синапса на сумматор, с сумматора – на нейрон, с нейрона – на синапсы нейронов другого слоя. Последнее, а именно, возможность получения градиента функции оценки по выходному сигналу нейрона и решает поставленную задачу. Градиент функции оценки используется при вычислении показателей значимости элементов и сигналов сети, поэтому будем использовать стандартные методы и не вводить специальных правил вычисления показателей значимости нейронов.
Представим, что у сети исчез первый слой нейронов, а нейроны второго слоя стали, соответственно, входными нейронами и принимают входные сигналы, являющиеся результатом обработки исходных входных сигналов нейронами бывшего первого слоя. Показатели значимости входных сигналов, вычисленные по известным формулам для новой сети, будут, соответственно, показателями значимости нейронов бывшего первого слоя. Конечно, не надо действительно менять архитектуру сети, надо просто по известным формулам (также, как вычисляется значимость входных сигналов) вычислить еще один набор показателей значимости. Аналогично вычисляются показатели значимости нейронов второго, третьего и последующих слоев. Такие показатели значимости оценивают степень влияния выходных сигналов нейронов на выходные сигналы сети.
Можно предложить альтернативный вариант, не связанный с проведением дополнительных вычислений. Примем в качестве показателя значимости нейрона сумму показателей значимости всех его синапсов (и неоднородного в том числе) и всех синапсов, по которым нейрон рассылает ответ. Этот путь оценивает суммарное влияние всех синапсов нейрона на изменение функции оценки. Чем сумма показателей значимости синапсов меньше, тем нейрон менее значим для принятия решения.
- Методы нейроинформатики
- Фцп "интеграция"
- Предисловие редактора
- Моделирование данных при помощи кривыхдля восстановления пробелов в таблицах
- 660036, Красноярск-36, ивм со ран,
- 1. Общая схема метода
- 2. Итерационный метод главных компонент для данных с пропусками
- 3. Квазилинейные факторы и формулы Карлемана
- 4. Нейронный конвейер
- Литература
- Финитность и детерминированность простых программ для кинетической машины кирдина
- 660036, Красноярск-36, ивм со ран,
- 1. Введение
- 2. Понятие кинетической машины Кирдина
- 3. Модели выполнения программы
- 3.1. Последовательная модель
- 3.2. Параллельно-последовательная модель
- 3.3. Максимальная параллельно-последовательная модель
- 4. Программы, состоящие из одной команды
- 4.1. Распад
- 4.2. Синтез
- 4.3. Прямая замена
- 5. Заключение
- ЛитературА
- Алгоритмическая универсальность кинетической машины кирдина
- 660036, Красноярск-36, ивм со ран,
- Литература
- Погрешности нейронных сетей. Вычисление погрешностей весов синапсов
- 660036, Красноярск-36, ивм со ран,
- 1. Введение
- 2. Структура сети
- 3. Два базовых подхода к оценкам погрешности
- 4. Погрешности весов синапсов
- 5. Гарантированные интервальные оценки погрешностей весов синапсов
- 6. Среднеквадратические оценки погрешностей весов синапсов
- 7. Заключение
- Литература
- Нейросетевые методы обработки информации в задачах прогноза климатических характеристик и лесорастительных свойств ландшафтных зон
- 660036, Красноярск-36, ивм со ран,
- Введение
- 1. Проблемы обработки таблиц экспериментальных данных
- 2. Искусственные нейронные сети
- 2.1. Элементы нейронных сетей
- 2.2. Архитектуры нейронных сетей
- 2.3. Решение задач нейронными сетями
- 2.4. Подача входных сигналов и снятие выходных сигналов сети
- 2.5. Обучение нейронных сетей
- 2.6. Вычисление градиента функции оценки по подстроечным параметрам сети
- 2.7. Факторы, влияющие на обучение нейронной сети
- 2.8. Упрощение нейронных сетей
- 2.9 Вычисление показателей значимости параметров и входных сигналов сети
- 3. Транспонированная задача регрессии
- 4. Применение нейросетевых технологий для обработки таблицы климатических данных
- 4.1. Заполнение пропусков в таблице климатических данных
- 4.2. Построение классификационной модели ландшафтных зон и секторов континентальности
- 4.2.1. Классификация ландшафтных зон Сибири
- 4.2.2. Идентификация лесных зон по континентальности
- 4.3. Прогнозирование возможного изменения ландшафтных зон и секторов континентальности
- 5. Заключение
- Литература
- Интуитивное предсказание нейросетями взаимоотношений в группе
- 660049, Красноярск, пр. Мира 82
- 1. Проблема оценки взаимоотношений
- 2. Общая задача экспериментов
- 3. Применяемые в экспериментах психологические методики
- 4. Эксперименты по предсказанию группового статуса
- 5. Нейросетевое исследование структуры опросника
- 6. Оценка оптимизации задачника нейросетью с позиций теории информации
- 7 Эксперименты по предсказанию парных взаимоотношений
- Литература
- Аппроксимация многомерных функций полутораслойным предиктором с произвольными преобразователями
- 660049, Красноярск, пр. Мира 82
- 1. Постановка проблемы
- 2. Аналитическое решение
- 3. Запись решения в идеологии нейросетей
- 4. Алгоритмическая часть
- 5. Оценка информационной емкости нейронной сети при помощи выборочной константы Липшица
- 6. Соглашение о терминологии
- 7. Компоненты сети
- 8. Общий элемент сети
- 9. Вход сети
- 10. Выход сети
- 11. Синапс сети
- 12. Тривиальный сумматор
- 13. Нейрон
- 14. Поток сети
- 15. Скомпонованная полутораслойная поточная сеть
- Литература
- Использование нейросетевых технологий при решении аналитических задач в гис
- 660036, Красноярск-36, ивм со ран,
- Литература
- Использование нейросетевых технологий для проведения учебно-исследовательских работ
- 1. Введение
- 2. Зимняя Политехническая Школа по Нейроинформатике
- 3. Задачи
- 4. Результаты
- 5. Перспективы
- Литература
- Производство полуэмпирических знаний из таблиц данных с помощью обучаемых искусственных нейронных сетей
- 660036, Красноярск-36, ивм со ран,
- 1. Введение
- 2. Логически прозрачные нейронные сети
- 2.1. Архитектура логически прозрачных сетей
- 2.2. Критерии логической прозрачности нейронной сети
- 2.3. Требования к нелинейности элементов
- 3. Контрастирование нейронов
- 4. Приведение нейронных сетей к логически прозрачному виду
- 4.1. Наложение ограничений на архитектуру нейросети
- 4.2. Упрощение нейросети
- 4.3. Приведение настраиваемых параметров сети к предельным значениям и модификация нелинейных преобразователей нейронов
- 4.4. Проведение эквивалентных преобразований структуры нейросети
- 5. Вербализация нейронных сетей
- 6. Автоматическая генерация полуэмпирических теорий
- 7. Когнитологические аспекты
- 8. Влияние функции оценки на логическую прозрачность сети. Исключение примеров
- 9. Как выбирают американских президентов
- 10. Заключение
- Литература
- Содержание