Openstack DevOps and IBM/Informix Certified DBA . Phd in Math (Duality of spaces of... · 17 авг 2022
Сети с радиальной базисной функцией (RBF) представляют собой сети с прямой связью, обученные с использованием алгоритма обучения с учителем. Обычно они конфигурируются с одним скрытым слоем модулей, функция активации которых выбирается из класса функций, называемых базовыми функциями. Несмотря на то, что сети с радиальными базисными функциями во многих отношениях похожи на обратное распространение, они имеют несколько преимуществ. Обычно они обучаются намного быстрее, чем сети с обратным распространением. Они менее подвержены проблемам с нестационарными входными данными из-за поведения скрытых блоков радиальной базисной функции. Сети RBF, популяризированные в 1989 г., оказались полезной архитектурой нейронной сети. Основное различие между сетями RBF и сетями с обратным распространением (то есть многослойным перцептроном, обученным алгоритму обратного распространения) заключается в поведении одного скрытого слоя. Вместо использования сигмоидальной или S-образной функции активации, как при обратном распространении, скрытые элементы в сетях RBF используют гауссову ( или какую-либо другую базовую) функцию ядра .
Обучение модели RBF прекращается, когда расчетная ошибка достигает желаемых значений (т.е. 0,01) или количество итераций обучения (т.е. 500) уже завершено. Выбирается сеть RBF с определенным количеством узлов (например, 10) в ее скрытом слое.
В качестве передаточной функции в вычислительных единицах используется функция Гаусса. В зависимости от случая обычно наблюдается, что сети RBF требуется меньше времени для достижения конца обучения по сравнению с MLP. Согласие между предсказаниями модели и экспериментальными наблюдениями будет исследовано, и результаты двух моделей будут сравнены.
Каждая скрытая единица действует как локально настроенный процессор, который вычисляет оценку соответствия между входным вектором и его весами или центрами соединения. По сути, базовые блоки представляют собой узкоспециализированные детекторы образов. Веса, соединяющие базисные единицы с выходными данными, используются для получения линейных комбинаций скрытых единиц для получения окончательной классификации или выходных данных.
==========================================
Входной слой: входной слой состоит из исходных узлов (сенсорных единиц), количество которых равно размерности входного вектора.
Скрытый слой: второй слой — это скрытый слой, состоящий из нелинейных единиц, которые напрямую связаны со всеми узлами входного слоя. Он имеет достаточно большую размерность, что служит иной цели, чем в многослойном персептроне. Каждая скрытая единица получает входные данные от всех узлов компонентов на входном слое. Как упоминалось выше, скрытые блоки содержат базовую функцию, которая имеет параметры center и width. Центр базисной функции для узла "i" на скрытом уровне представляет собой вектор "c_i", размер которого равен входному вектору "u" , и обычно для каждого узла в сети существует другой центр. Во-первых, радиальное расстояние "d_i" между входным вектором "u" и центром базисной функции "c_i" вычисляется для каждой единицы "i" в скрытом слое с использованием евклидова расстояния:
d_i=||u-c_i||
Выход "h_i" каждой скрытой единицы "i" затем вычисляется путем применения базовой функции "G" к этому расстоянию: h_i=G(di,sigmai)
Базисная функция представляет собой кривую (обычно это функция Гаусса, ширина которой соответствует дисперсии, «сигма»), которая имеет пик на нулевом расстоянии и уменьшается по мере увеличения расстояния от центра.
Выходной слой: преобразование из входного пространства в скрытое пространство единиц является нелинейным, тогда как преобразование из скрытого пространства единиц в пространство вывода является линейным. j-й вывод вычисляется как: