Статья:

ОСОБЕННОСТИ ИСПОЛЬЗОВАНИЯ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ В СИСТЕМАТИЗАЦИИ ДАННЫХ

Журнал: Научный журнал «Студенческий форум» выпуск №16(195)

Рубрика: Технические науки

Выходные данные
Рахманкулов Е.Д. ОСОБЕННОСТИ ИСПОЛЬЗОВАНИЯ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ В СИСТЕМАТИЗАЦИИ ДАННЫХ // Студенческий форум: электрон. научн. журн. 2022. № 16(195). URL: https://nauchforum.ru/journal/stud/195/109963 (дата обращения: 26.11.2024).
Журнал опубликован
Мне нравится
на печатьскачать .pdfподелиться

ОСОБЕННОСТИ ИСПОЛЬЗОВАНИЯ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ В СИСТЕМАТИЗАЦИИ ДАННЫХ

Рахманкулов Ерман Даниярович
магистрант, Евразийский национальный университет, РК, г. Нур-Султан

 

Главное преимущество методов глубокого обучения заключается в том, что почти нет необходимости выполнять проектирование объектов. Это преимущество следует из возможности осуществления обучения представлению, что означает получение знаний из исходных данных. Преимущественно часто используемым методом глубокого обучения для классификации изображений является «Сверточная нейронная сеть» (СНС). Основной мотивацией было то, что зрительная кора у млекопитающих состоит из слоев простых клеток и сложных клеток, и по мере того, как изображение обрабатывается через кору головного мозга, обнаруживаются все более богатые особенности изображения. Фундаментом стала эта особенность зрительной коры головного мозга млекопитающих, которые обладают способностью выделять сильную пространственно-локальную связь для создания высокоорганизованных объектов информации из необработанных данных.

Мозг обрабатывает огромное количество информации, как только зверь видит объект. Каждый нейрон ведет обработку в своем собственном рецептивном поле и связывается с другими нейронами таким образом, что нейроны охватывают все поле зрения. Точно так же, как каждый нейрон реагирует на возбудителей только в ограниченной области поля зрения, называемой рецептивным полем в биологической системе зрения, каждый нейрон в СНС также обрабатывает данные только в своем рецептивном поле. Слои организованы таким образом, что сначала обнаруживаются более простые узоры (линии, кривые и т. д.), а затем — более сложные узоры (лица, объекты и т. д.). Используя СНС, можно обеспечить видимость для компьютеров.

Существует возможность организовать нейроны СНС в трехмерную структуру для сбора информации о ширине, высоте и глубине. Соответственно, СНС обычно используются для выполнения классификации изображений. СНС обычно представляют собой структурированный шаблон слоев, объединяющий последовательные сверточные слои со срезанными линейными узлами (СЛУ в качестве функции активации, иногда рассматриваемые как отдельный слой) и объединяющие слои, представленные в виде прямоугольников на этапе скрытых слоев на рисунке 1.

Рисунок 1Архитектура СНС

 

Процесс свертки, выполняемый сверточным слоем, представляет собой средство извлечения объектов, которое выступает в качестве фильтра, который перемещается по данным, объединяя данные. Каждый последующий уровень увеличивает уровень абстракции объектов, захваченных фильтрами. Фильтры в первом слое, например, будут отвечать за обнаружение наличия границ, в то время как второй слой будет отвечать за обнаружение комбинации границ. Третий сверточный слой должен быть приспособлен для обнаружения частей известных объектов. Необходимо обратить внимание на то, что уровень абстракции увеличивается от слоя к слою, как и было указано ранее. СНС особенно хорошо подходят для обработки сетчатых данных, где структура данных содержит информацию, такую как аудиосигналы в формате 1D, изображения в 2D и видео в 3D. Во многих моделях машинного обучения, таких как многослойный перцептрон Румельхарта при обработке данных со структурой, чтобы учиться на основе заданных данных, появляется необходимость векторизовать имеющиеся данные, превращая их в единый вектор, а не в матрицу или какую-либо другую структуру. Считается, что учет подобной структуры помогает повысить производительность моделей.

Расстояние скользящего шага фильтра известно, как сдвиг. Обычно в операции свертки используется сдвиг, равный единице. Это означает, что ядро было сдвинуто на одну позицию. Результатом такого фильтра является точечное произведение элементов фильтра и данных в пределах границ ядра. Данная операция может быть интерпретирована как принудительное объединение схожих объектов в один единый объект.

Для того, чтобы избежать переобучения, используется очень эффективный метод: отсев. Уровень отсева отвечает за случайное изменение выходного сигнала части нейронов до нуля, часть известна как коэффициент отсева. Входной массив [0.1, 0.5, 0.7, 0.3, 0.4], например, при показателе отсева 0,2 (20%) одно из его значений будет равно нулю. Отсев осуществляется только на этапе обучения. Во время тестирования выходные значения уменьшаются на коэффициент, равный коэффициенту отсева, чтобы сбалансировать тот факт, что используется больше единиц, чем в течение периода обучения.

Общая идея относительно того, почему СНС так эффективно работают на практике для изображений и аналогично структурированных данных, заключается в том, что индуктивное смещение сетей ограничивается классом гипотез, которые хорошо работают именно для структурированных данных. Это означает, что данное индуктивное смещение, которое можно рассматривать, как локальные паттерны в изображениях, проявляющихся в нескольких частях изображений, является приемлемым индуктивным смещением. При этом можно получить удовлетворительные результаты для классификации изображений (и любой другой задачи, связанной с изображениями), переходя от многослойных перцептронов к СНС, потому что идет процесс ограничения классов функций, которые рассматриваются классом, более подходящим специально для изображений.

 

Список литературы:
1. What is deep learning? – [Электронный ресурс] – Режим Доступа. –URL: https://www.techtarget.com/searchenterpriseai/definition/deep-learning-deep-neural-network (Дата обращения: 15.04.2022).
2. Approximation by superpositions of a sigmoidal function – [Электронный ресурс] – Режим Доступа. 
–URL: https://link.springer.com/article/10.1007/BF02551274 (Дата обращения: 15.04.2022).
3. ImageNet Classification with Deep Convolutional Neural Networks – [Электронный ресурс] – Режим доступа. –URL https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf (Дата обращения: 15.04.2022).
4. Convolutional Neural Networks (CNNs / ConvNets) – [Электронный ресурс] – Режим доступа. –URL https://cs231n.github.io/convolutional-networks/ (Дата обращения: 15.04.2022).