Завантажити PDF файл.

Формула / Реферат

Нейронна мережа "MIN_0", яка призначена для отримання на виході найменшої з двох вхідних змінних  сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці  і перетворення її пороговою активаційною функцією, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними  сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару, який відрізняється тим, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції , нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними  та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення  та не має активаційної функції.

Текст

Реферат: UA 98308 U UA 98308 U 5 10 15 20 25 30 35 40 45 50 55 Корисна модель належить до штучних нейронних мереж (ШНМ), призначених для реалізації логічного рішення стосовно виділення мінімального числа з ряду поданих чисел, яке застосовується в нейрокібернетиці і може бути використане в нейрокомп'ютерах та штучних нейронних мережах при розв'язанні задач логічної обробки даних. Для виділення мінімального числа з ряду поданих чисел Xx1, x 2 ,, xn  звичайно використовується нейронна мережа по отриманню максимального числа цього ряду: 1. ШНМ MAXNET звичайно використовується для виділення найбільшого додатного значення з ряду поданих чисел Xx1, x 2 ,, xn  . Але вона може використовуватись й для виділення найменшого від'ємного елементу сигналу, для чого в мережу потрібно ввести значення вхідного вектора з протилежними знаками. Якщо числа Xx1, x 2 ,, xn  вміщують лише від'ємні числа, або додатні та від'ємні числа, то достатньо змінити їх знаки на протилежні, і нейронна мережа MAXNET виділить мінімальне від'ємне число (максимальне по модулю серед усіх від'ємних чисел) у вигляді виходу "+1". Якщо числа Xx1, x 2 ,, xn  вміщують лише додатні числа, то нейронна мережа MAXNET не може виділити мінімальне число, бо всі її виходи при зміні знаків чисел Xx1, x 2 ,, xn  будуть дорівнювати "0" [1; 2, - С. 51-52]. 2. Аналогічним чином, відомий ШНМ - компаратор, призначений для виділення з чисел Xx1, x 2 ,, xn  максимального значення при зміні знаків входів виділить мінімальне число [2, С. 102-106; 3]. На відміну від інших типів ШНМ - компаратор використовує постійні значення ваг, які визначаються до початку функціонування мережі і не змінюються у процесі її роботи. Тому у подальшому пропоновану ШНМ "МIN_0", призначену для виділення мінімального числа з ряду поданих чисел Xx1, x 2 ,, xn  , порівнюємо з MAXNET та ШНМ - компаратором, у яких знаки вхідних чисел змінені на протилежні. При цьому основний напрямок роботи MAXNET та ШНМ-компаратора (пошук максимального числа) не змінюється, що й описується при розгляді їх принципу роботи. Відома нейронна мережа MAXNET була запропонована як доповнення до ШНМ Хеммінга [1] і призначена для виділення з початкового введеного вектору Xx1, x 2 ,, xn  елемента з максимальним позитивним значенням. Мережа MAXNET призначена для виділення лише одного додатного елемента з найбільшим значенням. Тому на виході MAXNET лише один сигнал має ненульове значення. Якщо усі елементи вхідного вектора є від'ємними, то мережа буде мати на виході лише нульові значення. Вважаємо, що вхідний вектор Xx1, x 2 ,, xn  складається з числових змінних, кожна з яких підключена до входу одного власного нейрона, які у сукупності складають один шар мережі MAXNET. Кожний нейрон має рекурсивний позитивний зворотний зв'язок на власний вхід та негативний зворотний зв'язок на входи інших нейронів. Початкові дані у вигляді Xx1, x 2 ,, xn  вводять в MAXNET лише один раз - на початку рекурентних розрахунків (далі вхідні дані вимикаються і не використовуються). При цьому всі нейрони одного шару є конкуруючими, а перевага надається нейрону, який має найбільший вхідний сигнал, тобто підсилюється (збільшується) вага лише одного нейрона по принципу навчання "переможець отримує все". Ваги ж інших (неактивних) нейронів або не змінюються, або зменшуються. Початкові сигнали Xx1, x 2 ,, xn  перераховуються у процесі рекурентних розрахунків кілька разів до виділення з них лише одного елементу - переможця з найбільшим позитивним числовим значенням виходу "+1" після проходження активаційної функції (усі інші елементи набувають від'ємного значення і після проходження активаційної функції на виході MAXNET отримують нульові значення "0"). Цикл розрахунків повторюється до отримання лише одного переможця [1; 2, - С. 51-52]. Недоліком мережі MAXNET є складність навчання, збільшений час ідентифікації максимального числа та виділення не самого числа-переможця, а лише позначення (маркування) переможця. Найбільш близьким до заявленої нейронної мережі за сукупністю суттєвих ознак є обраний за прототип відомий ШНМ-компаратор, який використовується для отримання на виході найменшої з двох вхідних змінних ( x i , x j ) сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці x i, j  x i  x j і перетворення її пороговою активаційною функцією, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними ( x i , x j ) сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару [2, с. 102-106; 3]. 1 UA 98308 U 5 10 15 20 25 30 35 Причини, які перешкоджають одержанню очікуваного технічного результату у прототипі (спрощення архітектури, зменшення вартості ШНМ через зменшення кількості нейронів на 30 %, зменшення витрат на обслуговування і налагодження ШНМ внаслідок спрощення архітектури) є прийнята архітектура ШНМ та алгоритм розв'язку задачі. Недоліками прийнятої за прототип ШНМ є: - ускладнена архітектура; - збільшення вартості через збільшення кількості нейронів на 30 %; - збільшення витрат на обслуговування і налагодження ШНМ внаслідок збільшеної її складності. Технічним результатом пропонованої корисної моделі є зменшення вартості обладнання та зменшення витрат на обслуговування і налагодження за рахунок зменшення кількості нейронів. Загальні суттєві ознаки запропонованої ШНМ, які співпадають з суттєвими ознаками прототипу, полягають у тому, що нейронна мережа "MIN_0" призначена для отримання на виході найменшої з двох вхідних змінних ( x i , x j ) сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці x i, j  x i  x j і перетворення її пороговою активаційною функцією, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними ( x i , x j ) сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару. Суттєві ознаки запропонованої ШНМ, що є достатніми у всіх випадках і характеризують запропоновану корисну модель на відміну від прототипу, полягають у тому, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції   0 / 1, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними ( x i , x j ) та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення yi, jMIN  (1 )  xi    x j та не має активаційної функції. Передбачуваний спосіб ілюструється малюнками, на яких наведено: Фіг. 1 - Схема нейронної мережі MIN_0; Фіг. 2 - Спрощене зображення нейронної мережі MIN_0; Фіг. 3 - Складна нейронна мережа M_MIN_0 по фільтрації мінімального числа серед ряду вхідних чисел. На фіг. 1 використані наступні позначення: - 1 - нейрон захованого шару; - 2 - нейрон вихідного шару; - x i , x j - вхідні змінні сенсорного шару; - x i, j  x i  x j - вхідний оператор нейрона 1 захованого шару, який отримує різницю вхідних змінних ( x i , x j ) сенсорного шару; -   0 / 1 - вихід нейрона 1 захованого шару після переробки різниці x i, j  x i  x j пороговою активаційною функцією у значення 0 або 1; 40 45 50 - yi, jMIN  (1 )  xi    x j - вихід нейрона 2 без активаційної функції, що отримується його вхідним оператором. На фіг. 2 використані наступні позначення: - MIN_0 - спрощене (у порівнянні з фіг. 1) умовне позначення пропонованої ШНМ "MIN_0" з двома входами ( x i , x j ) та виходом y i, jMIN . На фіг. 3 використані наступні позначення: - MIN_0 - спрощені позначення за фіг. 2 пропонованої ШНМ "MIN_0", які використані для створення складної нейронної мережі M_MIN_0 по фільтрації максимального вхідного числа серед ряду вхідних чисел; - x1  2, x 2  4, x 3  1 x 4  7, x 5  9, x 6  3, x 7  5 - ряд вхідних чисел складної нейронної , мережі M_MIN_0, серед яких вона вказує на виході мінімальне значення y 1 7 MIN  1 . Розглянемо суть роботи пропонованої ШНМ. На фіг. 1 показана схема нейронної мережі "MIN_0". 2 UA 98308 U Сенсорний шар нейронної мережі має дві вхідні змінні ( x i , x j ) . Ці дві вхідні змінні мають зв'язки з відповідними ваговими коефіцієнтами "+1" та "-1" з нейроном 1 захованого шару. Нейрон 1 захованого шару має вхідний оператор, який призначений для отримання різниці вхідних змінних x i, j  x i  x j . Різниця вхідних змінних x i, j поступає на порогову нелінійну 5 функцію нейрона 1, в результаті чого на виході нейрона 1 отримуємо або   f (x i, j )  0 , якщо x i, j  0 або   f ( x i, j )  1 , якщо x i, j  0 . Вихід  та дві вхідні змінні ( x i , x j ) з'єднані з нейроном 2 вихідного шару зв'язками з однаковими ваговими коефіцієнтами "+1". Нейрон 2 має вхідний оператор yi, jMIN  (1 )  xi    x j , який не має активаційної функції і видає на виході ШНМ найменше значення з двох вхідних змінних ( x i , x j ) . 10 Якщо розглянути два конкретних значення вхідних змінних ( x i  2, x j  4) , то вхідний оператор нейрона 1 видає значення x i, j  x i  x j  2  4  2 , яке перетворюється пороговою функцією активації нейрона 1 у вихідну величину   f (x i, j )  0 . Нейрон 2 не має активаційної функції і видає на власний вихід значення найбільшої вхідної змінної x j  4 , розрахованої за 15 вхідним оператором yi, jMIN  (1 )  xi    x j  (1 0)  2  0  4  2 . Нейронна мережа виконує свої функції при розгляді позитивних, негативних та позитивних і негативних вхідних змінних. На фіг. 2 показане спрощене зображення нейронної мережі MIN_0 (у порівнянні з фіг. 1). На спрощеному зображенні вказані вхідні змінні 20 25 30 35 40 ( x i  2, x j  4) та вихід yi, jMIN  2 . Вагові коефіцієнти вхідних змінних не показані з метою спрощення зображення (тому що вхідні змінні мають зв'язки з різними ваговими коефіцієнтами і загальна їх кількість дорівнює чотирьом). На Фіг. 3 показана складна нейронна мережа M_MIN_0 по виділенню мінімального числа серед ряду вхідних чисел у якій ( x1  2, x 2  4, x 3  1 x 4  7, x 5  9, x 6  3, x 7  5) , , використовується спрощене зображення нейронної мережі MIN_0 за фіг. 2. З фіг. 3 випливає, що загальна кількість нейронних мереж MIN_0 дорівнює (n  1) , де n - кількість вхідних змінних сенсорного шару. При подачі на сенсорний шар ряду вхідних чисел мережа M_MIN_0 попарно порівнює вхідні змінні ( x1  2, x 2  4, x 3  1 x 4  7, x 5  9, x 6  3, x 7  5) , і обирає з них найменше y1 7 MIN  x 3  1 . Використання запропонованої нейронної мережі MIN_0 дозволяє: 1) зменшити витрати на обладнання за рахунок його спрощення внаслідок зменшення кількості нейронів на 30 %; 2) зменшити витрати на обслуговування і налагодження нейронної мережі внаслідок її спрощення. Зміна знаків вхідних змінних дозволяє виділити мережею "MIN_0" максимальне значення чисел сенсорного шару. Джерела інформації: 1. Lippman R. P. An introduction to computing with neural nets // IEEE ASSP Magazine. Apr. 1987. - P. 4-22. 2. Руденко О.Г., Бодянський С.В. Штучні нейронні мережі. - Харків: ТОВ "Компанія СМІТ", 2006. - 404 с 3. Zakharian S., Ladevig-Riebler P., Torez S. Neuronale Netze fur Ingenieure: Arbeits und Ubungsbush fur regulungstechnische Anwendungen. Braunschweig: Vieweg, 1998. ФОРМУЛА КОРИСНОЇ МОДЕЛІ 45 Нейронна мережа "MIN_0", яка призначена для отримання на виході найменшої з двох вхідних змінних ( xi, x j ) сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці xi, j  xi  x j і перетворення її пороговою активаційною 50 функцією, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними ( xi, x j ) сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару, який відрізняється тим, що 3 UA 98308 U проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції   0 / 1 , нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними ( xi, x j ) та виходом нейрона 5 проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення yi, jMIN  (1   )  xi    x j та не має активаційної функції. 4 UA 98308 U Комп’ютерна верстка М. Шамоніна Державна служба інтелектуальної власності України, вул. Василя Липківського, 45, м. Київ, МСП, 03680, Україна ДП “Український інститут промислової власності”, вул. Глазунова, 1, м. Київ – 42, 01601 5

Дивитися

Додаткова інформація

МПК / Мітки

МПК: G06N 3/02, G06N 7/02

Мітки: min_0, мережа, нейронна

Код посилання

<a href="https://ua.patents.su/7-98308-nejjronna-merezha-min0.html" target="_blank" rel="follow" title="База патентів України">Нейронна мережа “min_0″</a>

Подібні патенти