Нейронна мережа “min_1″
Номер патенту: 98309
Опубліковано: 27.04.2015
Автори: Кутковецький Валентин Якович, Турти Марина Валентинівна
Формула / Реферат
Нейронна мережа, яка призначена для отримання на виході найменшої з двох вхідних змінних (хi, xj) сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці Δхi,j=хi-xj і перетворення її пороговою активаційною функцією у значення Δ=-1/1 на його виході, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим додатнім ваговим коефіцієнтом з'єднані з вхідними змінними (хi, xj) сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару, який відрізняється тим, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними (хi, xj) та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення yi,jMIN=0,5·(1-Δ)·хi+0,5·(l+Δ)·xj та не має активаційної функції.
Текст
Реферат: UA 98309 U UA 98309 U 5 10 15 20 25 30 35 40 45 50 55 Корисна модель належить до штучних нейронних мереж (ШНМ), призначених для реалізації логічного рішення стосовно виділення мінімального числа з ряду поданих чисел, яке застосовується в нейрокібернетиці і може бути використане в нейрокомп'ютерах та штучних нейронних мережах при розв'язанні задач логічної обробки даних. Для виділення мінімального числа з ряду поданих чисел Xx1, x 2 ,, xn звичайно використовується нейронна мережа по отриманню максимального числа цього ряду: 1. ШНМ MAXNET звичайно використовується для виділення найбільшого додатного значення з ряду поданих чисел Xx1, x 2 ,, xn . Але вона може використовуватись й для виділення найменшого від'ємного елемента сигналу, для чого в мережу потрібно ввести значення вхідного вектора з протилежними знаками. Якщо числа Xx1, x 2 ,, xn вміщують лише від'ємні числа або додатні та від'ємні числа, то достатньо змінити їх знаки на протилежні, і нейронна мережа MAXNET виділить мінімальне від'ємне число (максимальне по модулю серед усіх від'ємних чисел) у вигляді виходу "+1". Якщо числа Xx1, x 2 ,, xn вміщують лише позитивні числа, то нейронна мережа MAXNET не може виділити мінімальне число, бо всі її виходи при зміні знаків чисел Xx1, x 2 ,, xn будуть дорівнювати "0" [1; 2, с. 51-52]. 2. Аналогічним чином, відомий ШНМ - компаратор, призначений для виділення з чисел Xx1, x 2 ,, xn максимального значення, при зміні знаків входів виділить мінімальне число [2, с. 102-106; 3]. Тому у подальшому пропоновану ШНМ "MIN_1", призначену для виділення мінімального числа з ряду поданих чисел Xx1, x 2 ,, xn , порівнюємо з MAXNET та ШНМ - компаратором, у яких знаки вхідних чисел вважаємо зміненими на протилежні. При цьому основний напрямок роботи MAXNET та ШНМ - компаратора (пошук максимального числа) не змінюється, що й описується при розгляді їх принципу роботи. Відома нейронна мережа MAXNET була запропонована як доповнення до ШНМ Хеммінга [1] і призначена для виділення з початкового введеного вектора Xx1, x 2 ,, xn елемента з максимальним додатнім значенням. Мережа MAXNET складається з одного шару нейронів з вихідною активаційною функцією 0/1 і призначена для виділення на виході лише одного додатного елемента з найбільшим значенням "1" (всі інші елементи будуть мати значення "0"). Тому на виході MAXNET лише один сигнал має ненульове значення. Якщо усі елементи вхідного вектора є від'ємними, то мережа буде мати на виході лише нульові значення. Вважаємо, що вхідний вектор Xx1, x 2 ,, xn складається з числових змінних, кожна з яких підключена до входу одного власного нейрона, які у сукупності складають один шар мережі MAXNET. Кожний нейрон має рекурсивний позитивний зворотний зв'язок на власний вхід та негативний зворотний зв'язок на входи інших нейронів. Початкові дані у вигляді Xx1, x 2 ,, xn вводять в MAXNET лише один раз - на початку рекурентних розрахунків (далі вхідні дані вимикаються і не використовуються). При цьому всі нейрони одного шару є конкуруючими, а перевага надається нейрону, який має найбільший вхідний сигнал, тобто підсилюється (збільшується) вага лише одного нейрона по принципу навчання "переможець отримує все". Ваги ж інших (неактивних) нейронів або не змінюються, або зменшуються. Початкові сигнали Xx1, x 2 ,, xn перераховуються у процесі рекурентних розрахунків кілька разів до виділення з них лише одного елемента - переможця з найбільшим позитивним числовим значенням виходу "+1" після проходження активаційної функції (усі інші елементи набувають від'ємного значення і після проходження активаційної функції на виході MAXNET отримують нульові значення "0"). Цикл розрахунків повторюється до отримання лише одного переможця [1; 2, с. 51-52]. Недоліком мережі MAXNET є складність навчання, збільшений час ідентифікації максимального числа та виділення не самого числа-переможця, а лише позначення (маркування) переможця. Найбільш близьким до заявленої нейронної мережі за сукупністю суттєвих ознак є вибраний за прототип відомий ШНМ - компаратор, який використовується для отримання на виході найменшої з двох вхідних змінних x i , x j сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці x i, j x i x j і перетворення її пороговою активаційною функцією у значення 1/ 1 на його виході, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними x i , x j сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару [2, с. 102-106; 3]. 1 UA 98309 U 5 10 15 Причини, які перешкоджають одержанню очікуваного технічного результату у прототипі (спрощення архітектури, зменшення вартості ШНМ через зменшення кількості нейронів на 30 %, зменшення витрат на обслуговування і налагодження ШНМ внаслідок спрощення архітектури) є прийнята архітектура ШНМ та алгоритм розв'язку задачі. Недоліками прийнятої за прототип ШНМ є: - ускладнена архітектура; - збільшення вартості через збільшення кількості нейронів на 30 %; - збільшення витрат на обслуговування і налагодження ШНМ внаслідок збільшеної її складності. Технічним результатом пропонованої корисної моделі є зменшення вартості обладнання та зменшення витрат на обслуговування та налагодження за рахунок зменшення кількості нейронів. Загальні суттєві ознаки запропонованої ШНМ, які співпадають з суттєвими ознаками прототипу, полягають у тому, що нейронна мережа "MIN_1" призначена для отримання на виході найменшої з двох вхідних змінних x i , x j сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці x i, j x i x j і 20 25 перетворення її пороговою активаційною функцією у значення 1/ 1 на його виході, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними x i , x j сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару. Суттєві ознаки запропонованої ШНМ, що є достатніми у всіх випадках і характеризують запропонована корисна модель на відміну від прототипу, полягають у тому, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними x i , x j та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення 0,5 (1 ) xi 0,5 I x j та не має активаційної функції. Спосіб пояснюється кресленнями, на яких наведено: Фіг. 1 - Схема нейронної мережі MIN_1; Фіг. 2 - Спрощене зображення нейронної мережі MIN_1; Фіг. 3 - Складна нейронна мережа M_MIN_1 для виділення мінімального числа серед ряду вхідних чисел. На фіг. 1 використані наступні позначення: - 1 - нейрон захованого шару; - 2 - нейрон вихідного шару. - x i , x j - вхідні змінні сенсорного шару; yi, jMIN 30 35 - x i, j x i x j - вхідний оператор нейрона 1 захованого шару, призначений для отримання різниці вхідних змінних x i , x j сенсорного шару; 40 45 50 - 1/ 1 - вихід нейрона 1 захованого шару після переробки різниці x i, j x i x j пороговою активаційною функцією у значення - 1 або 1; - yi, jMIN 0,5 (1 ) xi 0,5 I x j - вихід нейрона 2 без активаційної функції вихідного реагуючого шару, що отримується його вхідним оператором. На фіг. 2 використані наступні позначення: - MIN_1 - спрощене (у порівнянні з фіг. 1) умовне позначення пропонованої ШНМ "MIN_1" з двома входами x i , x j та виходом y i, jMIN . На фіг. 3 використані наступні позначення: - MIN_1 - спрощені позначення за фіг. 2 пропонованої ШНМ "MIN_1", які використані для створення складної нейронної мережі M_MIN_1 для отримання мінімального вхідного числа серед довільного ряду вхідних чисел; - x1 2, x 2 4, x3 1 x 4 7, x5 9, x 6 3, x7 5 - ряд вхідних чисел складної нейронної , мережі M_MIN_1, серед яких вона вказує на виході мінімальне значення y 1 7 MIN 1 . Розглянемо суть роботи пропонованої ШНМ. 2 UA 98309 U На фіг. 1 показана схема нейронної мережі "MIN_1". Сенсорний шар нейронної мережі має дві вхідні змінні x i , x j . Ці дві вхідні змінні мають зв'язки з відповідними ваговими коефіцієнтами "+1" та "-1" з нейроном 1 захованого шару. Нейрон 1 захованого шару має вхідний оператор, призначений для отримання різниці вхідних змінних x i, j x i x j . Різниця вхідних змінних x i, j надходить на порогову нелінійну функцію 5 нейрона 1, в результаті чого на виході нейрона 1 отримуємо або f ( x i, j ) 1 , якщо x i, j 0 або f ( x i, j ) 1 , якщо x i, j 0 . Вихід нейрона 1 та дві вхідні змінні x i , x j з'єднані з нейроном 2 вихідного шару зв'язками з однаковими ваговими коефіцієнтами "+1". Нейрон 2 має 10 вхідний оператор yi, jMIN 0,5 (1 ) xi 0,5 I x j , який не має активаційної функції і видає на виході ШНМ найменше значення з двох вхідних змінних x i , x j . Якщо розглянути два конкретних значення вхідних змінних ( x i 2, x j 4) , то вхідний оператор нейрона 1 видає значення x i, j x i x j 2 4 2 , яке перетворюється пороговою функцією активації нейрона 1 у вихідну величину f ( x i, j ) 1 . Нейрон 2 не має активаційної 15 функції і призначений для видачі на власний вихід значення найменшої вхідної змінної x i 2 , розрахованої за вхідним оператором yi, jMIN 0,5 (1 ) xi 0,5 I x j 0,5 1 1 2 0,5 1 1 4 2 . Нейронна мережа виконує свої функції при розгляді додатних, від'ємних та додатних і від'ємних вхідних змінних. На фіг. 2 показане спрощене зображення нейронної мережі MIN_1 у порівнянні з фіг. 1. На спрощеному зображенні вказані вхідні змінні 20 25 30 35 40 ( x i 2, x j 4) та вихід yi, jMIN 2 . Вагові коефіцієнти вхідних змінних не показані з метою спрощення зображення (тому що вхідні змінні мають зв'язки з різними ваговими коефіцієнтами і загальна їх кількість дорівнює чотирьом). На фіг. 3 показана складна нейронна мережа M_MIN_1 для виділення мінімального числа серед ряду вхідних чисел у якій ( x1 2, x 2 4, x 3 1 x 4 7, x 5 9, x 6 3, x 7 5) , , використовується спрощене зображення нейронної мережі MIN_1 за фіг. 2. З фіг. 3 випливає, що загальна кількість нейронних мереж МIN_1 у складній нейронній мережі M_MIN_1 дорівнює (n-1), де n - кількість вхідних змінних сенсорного шару. При подачі на сенсорний шар ряду вхідних чисел ( x1 2, x 2 4, x 3 1 x 4 7, x 5 9, x 6 3, x 7 5) мережа M_MIN_1 попарно порівнює вхідні , змінні і обирає з них найменшу величину y 1 7 MIN 1 . Запропонована нейронна мережа MIN_1 не потребує навчання та дозволяє: зменшити витрати на обладнання за рахунок його спрощення внаслідок зменшення кількості нейронів на 30 %; зменшити витрати на обслуговування і налагодження нейронної мережі внаслідок її спрощення. Зміна знаків вхідних змінних дозволяє виділити мережею "MIN_1" максимальне значення чисел сенсорного шару. Джерела інформації: 1. Lippman R.P. An introduction to computing with neural nets //IEEE ASSP Magazine. Apr. 1987. - P. 4-22. 2. Руденко О.Г., Бодянський С.В. Штучні нейронні мережі. - Харків: ТОВ "Компанія СМІТ", 2006. - 404 с. 3. Zakharian S., Ladevig-Riebler P., Torez S. Neuronale Netze fur Ingenieure: Arbeits und Ubungsbush fur regulungstechnische Anwendungen. Braunschweig: Vieweg, 1998. ФОРМУЛА КОРИСНОЇ МОДЕЛІ 45 50 Нейронна мережа, яка призначена для отримання на виході найменшої з двох вхідних змінних (хi, xj) сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці Δхi,j=хi-xj і перетворення її пороговою активаційною функцією у значення Δ=-1/1 на його виході, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим додатнім ваговим коефіцієнтом з'єднані з вхідними змінними (х i, xj) сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару, який відрізняється тим, що 3 UA 98309 U 5 проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними (х i, xj) та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході MIN значення yi,j =0,5·(1-Δ)·хi+0,5·(l+Δ)·xj та не має активаційної функції. 4 UA 98309 U Комп’ютерна верстка М. Шамоніна Державна служба інтелектуальної власності України, вул. Василя Липківського, 45, м. Київ, МСП, 03680, Україна ДП “Український інститут промислової власності”, вул. Глазунова, 1, м. Київ – 42, 01601 5
ДивитисяДодаткова інформація
МПК / Мітки
Мітки: мережа, min_1, нейронна
Код посилання
<a href="https://ua.patents.su/7-98309-nejjronna-merezha-min1.html" target="_blank" rel="follow" title="База патентів України">Нейронна мережа “min_1″</a>
Попередній патент: Нейронна мережа “min_0″
Наступний патент: Прилад для вимірювання дефектів рейкової колії при її експлуатації
Випадковий патент: Відцентрова ливарна машина