Научный журнал
Международный журнал прикладных и фундаментальных исследований

ISSN 1996-3955
ИФ РИНЦ = 0,580

ВОЗМОЖНОСТЬ РЕАЛИЗАЦИИ МОДУЛЬНЫХ ОПЕРАЦИЙ В КОЛЬЦЕ ПОЛИНОМОВ С ПОМОЩЬЮ НЕЙРОННЫХ СЕТЕЙ

Тимошенко Л.И. 1
1 Ставропольский филиал Краснодарского университета МВД России
Использование методов цифровой обработки сигналов позволяет относительно легко обеспечить высокую помехоустойчивость систем обработки данных, необходимую точность и разрешающую способность, стабильность параметров тракта обработки информации и ряд других преимуществ. При этом эффективность работы системы цифровой обработки сигналов во многом определяется математической моделью. Возрастание требований к технико-экономическим характеристикам современных систем цифровой обработки сигналов привели к активизации работ по разработке специализированных процессоров цифровой обработки сигналов.
цифровая обработка сигналов
арифметические операции
суммирование по модулю
нейронная сеть
системе остаточных классов
1. Калмыков И.А., Резеньков Д.Н., Тимошенко Л.И. Непозиционное кодирование информации в конечных полях для отказоустойчивых спецпроцессоров цифровой обработки сигналов // Инфокоммуникационные технологии. – 2007. – Т. 5. – № 3. – С. 36–39.
2. Калмыков И.А., Тимошенко Л.И., Чипига А.А. Разработка преобразователя позиционного кода в полиномиальную систему класса вычетов // Современные наукоемкие технологии. – 2006. – № 4. – С. 59–60.
3. Калмыков И.А., Тимошенко Л.И. Систолическая матрица для цифровой фильтрации в модулярной арифметике // Современные наукоемкие технологии. – 2007. – № 11. – С. 98–100.
4. Калмыков И.А., Петлеваный С.В., Тимошенко Л.И., Лисицын А.В. Разработка преобразователя модулярного кода ПСКВ в позиционный код // Современные наукоемкие технологии. – 2006. – № 4. – С. 57–59.
5. Калмыков И.А., Тимошенко Л.И. Нейросетевые модели многовходовых сумматоров по модулю два // Фундаментальные исследования. – 2008. – № 3. – С. 73–74.
6. Калмыков И.А., Хайватов А.Б., Тимошенко Л.И., Гахов В.Р. Применение полиномиальной системы классов вычетов для повышения скорости функционирования спецпроцессора адаптивных средств защиты информации // Успехи современного естествознания. – 2007. – № 5. – С. 76.
7. Калмыков И.А., Резеньков Д.Н., Петлеваный С.В., Тимошенко Л.И. Расширение системы оснований для обнаружения и коррекция ошибок в модулярном коде классов вычетов // Современные наукоемкие технологии. – 2006. – № 4. – С. 53–54.
8. Калмыков И.А., Емарлукова Я.В., Тимошенко Л.И., Гахов В.Р. Обобщенное дискретное преобразование Фурье для колец неприводимых полиномов // Успехи современного естествознания. – 2007. – № 5. – С. 77.
9. Калмыков И.А., Тимошенко Л.И., Лободин М.В., Сагдеев А.К. Реализация ортогональных преобразований сигналов в расширенных полях Галуа // Современные наукоемкие технологии. – 2006. – № 4. – С. 54–57.
10. Кузьменко И.П., Тимошенко Л.И. Систолические принципы организации вычислений в спецпроцессоре цифровой обработки сигналов с параллельно-конвейерным распределением вычислительного процесса // Культура и общество: история и современность: материалы II Всероссийской (с международным участием) научно-практической конференции. – Ставрополь. – 2013. – С. 76–78.
11. Тимошенко Л.И. Нейросетевая реализация вычислений в полиномиальной системе классов вычетов // Фундаментальные исследования. – 2008. – № 3. – С. 71–73.
12. Тимошенко Л.И. Анализ основных методов прямого преобразования из позиционной системы счисления в модулярный полиномиальный код // Современные наукоемкие технологии. – 2007. – № 9. – С. 23–24.
13. Тимошенко Л.И. Применение математической модели обладающей свойством кольца, для реализации цифровой обработки сигналов // Современные наукоемкие технологии. – 2007. – № 9. – С. 22–23.
14. Тимошенко Л.И. Реализация модульных операций в кольце полиномов с помощью нейронных сетей // Международный журнал прикладных и фундаментальных исследований. – 2015. – № 1–1. – С. 22–25.
15. Тимошенко Л.И. Разработка нейросетевых реализаций базовых операций обобщенного дискретного преобразования Фурье в кольце полиномов // Международный журнал экспериментального образования. – 2015. – № 2–3. – С. 367–371.
16. Тимошенко Л.И. Дискретное преобразование Фурье и его быстрые алгоритмы // Современные наукоемкие технологии. – 2014. – № 12–2. – С. 188–193.
17. Тимошенко Л.И. Применение быстрых сверточных алгоритмов // Международный журнал экспериментального образования. – 2015. – № 4–2. – С. 336–340.
18. Тимошенко Л.И. Методы обучения нейронных сетей // Теория. Практика. Инновации. – 2016. – № 1 (1). – С. 93–107.
19. Тимошенко Л.И. Применение вычислительных систем в цифровой обработке сигналов // Международный журнал прикладных и фундаментальных исследований. – 2016. – № 5–5. – С. 722–725.
20. Kalmykov I.A.E., Katkov K.A., Timoshenko L.I., Dunin A.V.E., Gish T.A. Application of modular technologies in the large–scale analysis of signals // Journal of Theoretical and Applied Information Technology. – 2015. – Т. 80. – № 3. – С. 391–400.

В последнее время наблюдается тенденция, когда нейронные сети стали использоваться при решении задач с ярко выраженным параллелизмом. К ним относятся задачи связанные с цифровой обработкой сигналов и изображений в реальном масштабе времени. Для этих задач переход к нейросетевому логическому базису обусловлен резким увеличением размерности пространства решения и необходимостью резкого уменьшения времени решения [1, С. 36-39; 2, С. 59-60]. Одним из наиболее перспективных направлений является решение данной задачи в нелинейном виде. На основе проведенного анализа, представленных в работах [13, С. 367-371, 15, С. 336-340,16, С. 93-107] основных видов нейронных сетей, был обоснованно выбран многослойный персептрон. Такая нейронная сеть характеризуется простотой реализацией разделяющих поверхностей гиперплоскостей. Особенно эффективен данный НЛБ, когда априорно известно распределение входных данных соответствующим разным классам.

В работах [6, С. 76, 12, С. 22-25] предлагается использовать параллельный принцип суммирования по модулю два. В этом случае суммирование по модулю два n элементов входного вектора х можно реализовать, используя принцип последовательного поразрядного суммирования

tim01.wmf, (1)

где xi – значение i-го разряда входного вектора, xi = {0, 1}.

При этом полное время преобразования входного двоичного вектора х = (х0, х1, …, хn-1) в отклик системы определяется

tim02.wmf, (2)

где Тсум – время срабатывания двухвходового сумматора по модулю 2.

Обладая хорошими скоростными показателями, данная модель нейроподобного сумматора по модулю два, характеризуется значительными аппаратными затратами [10, С. 23-24]. Количество нейросетевых двухвходовых сумматоров по модулю два определяется выражением

tim03.wmf. (3)

Повысить производительность НС, выполняющей операцию XOR, можно за счет перехода к двухслойной структуре нейронной сети. В работе [4, С. 57-59] предложено построение сумматоров по модулю два на основе двухслойной архитектуры. Первый (скрытый) слой содержит M1 нейронов

tim04.wmf, (4)

где k – размерность входного вектора, j = 2k + 1; k = 0,1…, число нейронов в выходном слое M2 = 1.

С целью повышения скорости выполнения операции суммирования по модулю два п-разрядных входных векторов в работах [5, С. 73-74, 11, С. 22-23] предложено изменить функцию активации нейронной сети. Данная функция ограничивает активность значениями 1 или 0 в зависимости от значения комбинированного ввода согласно условия

tim05.wmf (5)

На рис. 1 показана графическая интерпретация данной функции активации.

timoh1.wmf

Рис. 1. Графическая модель функции активации tribas

Из определения операции суммирования по модулю два двух чисел и треугольной функции активации следуют ограничения

tim06.wmf. (6)

На рис. 2 показана модель нейрона, реализующего суммирования по модулю два.

timoh2.wmf

Рис. 2. Нейросетевая модель двухвходового сумматора по модулю два с использованием треугольной функции активации

Исходные данные в двухмерном виде подаются на входы нейрона, умножаются на значения синаптических весов и поступают на сумматор, который реализует

tim07.wmf, (7)

где S – выходной сигнал сумматора; Wi – весовые коэффициенты (равны единице); Xi – входные значения нейрона tim08.wmf; b = – 1 – смещение.

С выхода сумматора полученное значение подается на схему активации, где и осуществляется разделение гиперкуба размерности п = 2 на два класса. Геометрическая интерпретация преобразования вводимых образцов под действием весовых коэффициентов, смещение и функции активации показана на рис. 3.

timoh3.wmf

Рис. 3. Геометрическая интерпретация операции XOR с использованием функции активации tribas

Графическая модель отношения XOR для трехмерного входного вектора разделяющими плоскостями на рис. 4.

timoh4.tif

Рис. 4. Гиперплоскости, реализующие операцию XOR, для трехвходового нейроподобного сумматора

При этом данные гиперплоскости реализуются нейроном скрытого слоя, функционирующим согласно

tim09.wmf (8)

При этом данная гиперплоскость реализуется вторым нейроном скрытого слоя, функционирующим согласно

tim10.wmf. (9)

Таким образом, количество нейронов второго (скрытого) слоя равно двум, что определяется как

tim11.wmf. (10)

Согласно [7, С. 53-54] для объединения информации об этих гиперплоскостях в выходном слое используется один нейрон с пороговой функцией активации, который осуществляет преобразование

tim12.wmf. (11)

Таким образом, правила построения нейросетевого сумматора по модулю два представляют собой последовательность следующих этапов:

– в качестве модели нейросетевого логического базиса выбран многослойный персептрон, синаптические веса которого равны единице;

– входной слой содержит п нейронов (п – размерность входного слова), которые осуществляют приём и распределение сигналов на второй слой;

– скрытый слой содержит tim13.wmf нейронов с функцией активации tribas, осуществляющих разделение вершин гиперкуба гиперплоскостями на 2 класса, с чётным и нечётным числом единичных элементов, при этом смещение l-го нейрона равно tim14.wmf, где tim15.wmf

– выходной слой содержит один нейрон пороговой функцией активации, используемый для объединения информации об этих гиперплоскостях

Обобщая сказанное выше, можно сделать вывод, что изменение функции активации позволило разработать сумматор по модулю два с использованием нейросетевого логического базиса, который характеризуется минимальным временем отклика на входное воздействие. Кроме того, данные устройство требует минимальных аппаратурных затрат на реализацию. Следовательно, такой сумматор может быть положен в основу разработки многовходового устройства «Исключающего ИЛИ» необходимого для реализации обобщенного ДПФ в кольце полиномов поля Галуа.

В работе [9, С. 71-73] представлен алгоритм разработки нейросетевой модели сумматора по модулю два с использованием треугольной функции активации для вектора входа состоящего из n элементов. Схемная реализация данной модели нейронной сети приведена в работе [17, С. 722-725]. Число слоев в построенной по данному алгоритму нейронной сети будет равно N = n-1. В этом случае временные затраты необходимые на выполнение операции составят

tim16.wmf. (12)

На рис. 5 показана схемная реализация пирамидального многовходового сумматора по модулю 2, использующего треугольную функцию активизации.

timoh5.wmf

Рис. 5. Нейросетевая схема пирамидального n-входового сумматора по модулю два

Тогда согласно расчетам, приведенным в работе [18, С. 391-400] для нечетного n, когда число слоев будет четно, схемные затраты необходимые для построения нейросетевого сумматора составят

tim17.wmf. (13)

Для четного n число слоев НС нечетно, следовательно, нейронная сеть содержит нейронов

tim18.wmf. (14)

Для оценки эффективности работы данного сумматора была разработана программа. Полученные значения совпадают с рассчитываемыми теоретически, что свидетельствует о работоспособности нейросетевой модели сумматора по модулю два с использованием треугольной функции активации для вектора входа состоящего из n элементов, построенной с использованием алгоритма.

С целью уменьшения временных затрат при построении многовходового сумматора по модулю два на основе нейросететвого базиса в работе [9, С. 71-73] предложено использовать каскадную организацию вычислительного устройства. В этом случае входной слой, реализует операцию нахождения суммы по модулю два значений каждой пары входов (1 и 2, 3 и 4, 5 и 6 и т.д.) и передает полученные промежуточные значения на второй слой нейронов. При этом значения входа нейрона, у которого нет пары, поступает в следующий слой без изменений. Данная процедура повторяется и для последующих слоев, до тех пор, пока не получится слой, состоящий из одного нейрона, выход которого и будет конечным результатом.

Несмотря на уменьшение временных затрат, каскадная модель не обеспечивает в полной мере минимизацию времени отклика нейронной сети на входной вектор.

С целью дальнейшего повышения скорости выполнения модульной операции в работе [8, с. 57-59] предложена двухслойная нейросетевая модель устройства, выполняющего операцию «Исключающее ИЛИ». Данная модель была разработана согласно теореме Колмогорова, которая гласит о том, что любую задачу можно решить в нейронной сети, используя всего два слоя (не считая входного) – скрытый и выходной.

Структура модели нейронной сети, реализующей многовходовой сумматор по модулю два представлена на рис. 6.

timoh6.wmf

Рис. 6. Нейронная сеть сумматора по модулю два, использующего треугольную функцию активации

Рассмотренный многовходовой сумматор по модулю два с треугольной функцией активации обладает рядом недостатков. Во-первых, основным недостатком данного сумматора является то, что структура его получается эвристическим способом. Во-вторых, просчет структуры многовходового сумматора при большом размере обрабатываемом векторе требует значительных временных затрат и не всегда является эффективным методом построения нейросетевого устройства, реализующего XOR. Поэтому совершенствование структуры сумматора по модулю два, которая бы позволяла осуществлять процесс обучения НС при различных значениях n является актуальной


Библиографическая ссылка

Тимошенко Л.И. ВОЗМОЖНОСТЬ РЕАЛИЗАЦИИ МОДУЛЬНЫХ ОПЕРАЦИЙ В КОЛЬЦЕ ПОЛИНОМОВ С ПОМОЩЬЮ НЕЙРОННЫХ СЕТЕЙ // Международный журнал прикладных и фундаментальных исследований. – 2016. – № 7-3. – С. 390-393;
URL: http://www.applied-research.ru/ru/article/view?id=9832 (дата обращения: 27.10.2020).

Предлагаем вашему вниманию журналы, издающиеся в издательстве «Академия Естествознания»
(Высокий импакт-фактор РИНЦ, тематика журналов охватывает все научные направления)

«Фундаментальные исследования» список ВАК ИФ РИНЦ = 1.074