Статья:

Сравнительный анализ многослойного и нечеткого многослойного персептронов при решении задачи классификации

Конференция: XLVII Студенческая международная научно-практическая конференция «Молодежный научный форум»

Секция: Технические науки

Выходные данные
Пензина Е.К. Сравнительный анализ многослойного и нечеткого многослойного персептронов при решении задачи классификации // Молодежный научный форум: электр. сб. ст. по мат. XLVII междунар. студ. науч.-практ. конф. № 17(47). URL: https://nauchforum.ru/archive/MNF_interdisciplinarity/17(47).pdf (дата обращения: 26.04.2024)
Лауреаты определены. Конференция завершена
Эта статья набрала 0 голосов
Мне нравится
Дипломы
лауреатов
Сертификаты
участников
Дипломы
лауреатов
Сертификаты
участников
на печатьскачать .pdfподелиться

Сравнительный анализ многослойного и нечеткого многослойного персептронов при решении задачи классификации

Пензина Евгения Константиновна
студент, Самарский национальный исследовательский университет имени академика С.П. Королева, РФ, г. Самара
Лёзин Илья Александрович
научный руководитель, доцент, канд. техн. наук., Самарский национальный исследовательский университет имени академика С.П. Королева, РФ, г. Самара

 

Введение. Человек ежедневно сталкивается с проблемами классификации. Например, администратор в банке решает, следует выдать кому-то кредит или нет. В данном случае администратор классифицирует клиентов по степени риска: высокий, средний или низкий риск. При оптическом распознавании символов сканируемые символы также ассоциируются с соответствующими им классами. Имеется немало вариантов изображения буквы «Н» даже для одного конкретного шрифта – символ может оказаться, например, смазанным, – но все эти изображения должны принадлежать классу «Н» [1].

Задача классификации – задача, в которой имеется множество объектов, разделенных некоторым образом на классы. Требуется построить алгоритм, способный классифицировать произвольный объект (указать номер класса, к которому относится данный объект) из исходного множества [2]. Одним из вариантов решения такой задачи является использование искусственных нейронных сетей.

Нейронные сети можно рассматривать как современные вычислительные системы, которые преобразуют информацию по образу процессов, протекающих в мозгу человека [3].

Нейронные сети оказались очень полезными при решении задач распознавания образов и классификации объектов. Они способны решать задачи, в которых неизвестны зависимости между входными и выходными данными [1].

В данной работе для решения задачи классификации используются многослойный и гибридный нечеткий многослойный персептроны. Исследованы классифицирующие способности этих нейронных сетей различной конфигурации.

Основная часть. Наиболее популярный класс многослойных сетей прямого распространения образуют многослойные персептроны, в которых каждый вычислительный элемент использует в качестве функции активации сигмоидальную функцию или гиперболический тангенс. При этом многослойный персептрон в целом может формировать сколь угодно сложные границы принятия решения, несмотря на то что элементы по отдельности имеют очень ограниченные вычислительные возможности [4]. Разработка алгоритма обратного распространения ошибки для определения весов в многослойном персептроне сделала эти сети наиболее популярными у исследователей и пользователей нейронных сетей.

Гибридный нечеткий многослойный персептрон является модификацией классического многослойного персептрона с дополнительным слоем с нечеткой самоорганизацией. Благодаря наличию нечеткого слоя нечеткий многослойный персептрон способен определять степень принадлежности входного вектора к одному из возможных классов, что позволяет решать задачи с пересекающимися классами. Структура нечеткого многослойного персептрона представлена на рисунке 1.

 

фмлп 
Рисунок 1. Структура нечеткого многослойного персептрона

 

Для обучения многослойного персептрона выбран алгоритм обратного распространения ошибки. Алгоритм обратного распространения ошибки определяет стратегию подбора весов многослойной сети с применением градиентных методов оптимизации. В настоящее время считается одним из наиболее эффективных алгоритмов обучения многослойной сети. При обучении ставится задача минимизации целевой функции, формируемой, как правило, в виде квадратичной суммы разностей между фактическими и ожидаемыми значениями выходных сигналов, которая для P обучающих выборок определяется по формуле:

                                                                                            (1)

где P – количество обучающих векторов, M – количество нейронов в выходном слое. Уточнение весов может проводиться после предъявления каждой обучающей выборки [5].

Для обучения нечеткого многослойного персептрона выбран алгоритм нечеткой самоорганизации C-Means. Цель обучения алгоритма состоит в таком подборе центров  , чтобы для заданного множества обучающих векторов  обеспечить достижение минимума функции

,                                                                                             (2)

при одновременном соблюдении условий ограничения

,                                                                                                                 (3)

где M – количество центров, P – количество входных векторов [6].

Результаты.

В качестве выборки для обучения и тестирования нейронной сети были выбраны данные с датчиков, фиксировавших положение некоторой детали автомобиля в пространстве при прохождении различных дорожных покрытий. Характеристика обучающей выборки:

−         всего 18000 записей;

−         5 входных параметров: номер типа детали, номер детали, три координаты;

−         6 классов дорожных покрытий.

Обучение нейронной сети осуществлено с помощью метода обратного распространения ошибки. Обучение нечеткого слоя нечеткого многослойного персептрона произведено с помощью алгоритма нечеткой самоорганизации C-means. Размеры входного и выходного слоев для всех экспериментов установлены в соответствии с количеством атрибутов и классов. Наборы разбиты на обучающую и тестовую выборки в соотношении 7 к 3. После каждого эксперимента массив входных данных перемешивается и все веса нейронной сети обнуляются.

Исследование зависимости погрешности обучения от значения коэффициента обучения представлено на рисунке 2.

 

Рисунок 2. График зависимости погрешности обучения от значения коэффициента обучения

 

Исследование зависимости погрешности классификации от числа итераций обучения представлено на рисунке 3.

 

Рисунок 3. График зависимости погрешности классификации от числа итераций обучения

 

Исследование зависимости погрешности классификации от числа нейронов скрытого слоя представлено на рисунке 4.

 

Рисунок 4. График зависимости погрешности классификации от числа нейронов скрытого слоя

 

Выводы. Таким образом, нечеткий многослойный персептрон показал более точные результаты в сравнении с многослойным персептроном. Однако, обучение нечеткого многослойного персептрона требует большего числа итераций и больших затрат памяти вычислительной машины.

 

Список литературы:
1 Каллан Р. Основные концепции нейронных сетей, М.: Изд-во Вильямс, 2001. 287с.
2 Определение задачи классификации [Электронный ресурс] – URL: https://ru.wikipedia.org/wiki/Задача_классификации.
3 Рутковская Д., Пилиньский Д., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. М.: Изд-во Горячая линия – Телеком, 2006. 452 с.  
4 Anil K. Jain, Jianchang Mao, K.M. Mohiuddin. Artificial Neural Networks: A Tutorial.: IEEE Computer, Vol.29, No. 3, March/1996, pp. 31-44. 
5 Осовский С. Неройнные сети для обработки информации [пер. с польского И.Д.Рудинского], М.: Изд-во Финансы и статистика, 2002. 344 с.
6 Солдатова О.П. Основы нейроинфоматики: учеб. пособие, Самара: Изд-во Самар. гос. аэрокосм. ун-та, 2006. 132 с.