Нейронна мережа “max_1″
Номер патенту: 97941
Опубліковано: 10.04.2015
Автори: Турти Марина Валентинівна, Кутковецький Валентин Якович
Формула / Реферат
Нейронна мережа, яка призначена для отримання на виході найбільшої з двох вхідних змінних сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці
і перетворення її пороговою активаційною функцією у значення
на його виході, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними
сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару, яка відрізняється тим, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними
та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення
та не має активаційної функції.
Текст
Реферат: UA 97941 U UA 97941 U 5 10 15 20 25 30 Корисна модель належить до штучних нейронних мереж (ШНМ), призначених для реалізації логічного рішення стосовно виділення максимального числа з ряду поданих чисел, яке застосовується в нейрокібернетиці і може бути використано в нейрокомп'ютерах та штучних нейронних мережах при розв'язанні задач логічної обробки даних. Відома нейронна мережа MAXNET була запропонована як доповнення до ШНМ Хеммінга [1] і призначена для виділення з початкового введеного вектора Xx1, x2,..., xn елемента з максимальним позитивним значенням. Мережа MAXNET призначена для виділення лише одного додатного елемента з найбільшим значенням. Тому на виході MAXNET лише один сигнал має ненульове значення. Якщо усі елементи вхідного вектора є від'ємними, то мережа буде мати на виході лише нульові значення. Ця ж сама мережа може використовуватись й для виділення найменшого негативного елемента сигналу, для чого в мережу потрібно ввести значення вхідного вектора з протилежними знаками. Вважаємо, що вхідний вектор Xx1, x2,..., xn складається з числових змінних, кожна з яких підключена до входу одного власного нейрона, які у сукупності складають один шар мережі MAXNET. Кожний нейрон має рекурсивний позитивний зворотний зв'язок на власний вхід та негативний зворотний зв'язок на входи інших нейронів. Початкові дані у вигляді Xx1, x2,..., xn вводять в MAXNET лише один раз - на початку рекурентних розрахунків (далі вхідні дані вимикаються і не використовуються). При цьому всі нейрони одного шару є конкуруючими, а перевага надається нейрона, який має найбільший вхідний сигнал, тобто підсилюється (збільшується) вага лише одного нейрона по принципу навчання "переможець отримує все". Ваги ж інших (неактивних) нейронів або не змінюються, або зменшуються. Початкові сигнали Xx1, x2,..., xn перераховуються у процесі рекурентних розрахунків кілька разів до виділення з них лише одного елемента - переможця з найбільшим позитивним числовим значенням виходу «+1" після проходження активаційної функції (усі інші елементи набувають від'ємного значення і після проходження активаційної функції на виході MAXNET отримують нульові значення "0"). Цикл розрахунків повторюється до отримання лише одного переможця [1; 2, с 51-52]. Недоліком мережі MAXNET є складність навчання, збільшений час ідентифікації максимального числа та виділення не самого числа-переможця, а лише позначення (маркування) переможця. Найбільш близьким до заявленої нейронної мережі за сукупністю суттєвих ознак є вибраний за прототип відомий ШНМ - компаратор, який призначений для отримання на виході найбільшої x ,x з двох вхідних змінних i j сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом «+1" та «-1" з входом нейрона проміжного захованого асоціативного шару, xi,j xi x j призначеного для отримання вхідним оператором різниці і перетворення її пороговою активаційною функцією у значення 1/ 1 на його виході, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані x ,x з вхідними змінними i j сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару [2, с. 102-106; 3]. Причини, які перешкоджають одержанню очікуваного технічного результату у прототипі (спрощення архітектури, зменшення вартості ШНМ через зменшення кількості нейронів на 30 %, зменшення витрат на обслуговування і налагодження ШНМ внаслідок спрощення архітектури) є прийнята архітектура ШНМ та алгоритм розв'язку задачі. Недоліками прийнятої за прототип ШНМ є: ускладнена архітектура; збільшення вартості через збільшення кількості нейронів на 30 %; збільшення витрат на обслуговування і налагодження ШНМ внаслідок збільшеної її складності. Технічним результатом запропонованої корисної моделі є зменшення вартості обладнання та зменшення витрат на обслуговування і налагодження за рахунок зменшення кількості нейронів. Загальні суттєві ознаки запропонованої ШНМ, які співпадають з суттєвими ознаками прототипу, полягають у тому, що нейронна мережа "МАХ_1" призначена для отримання на x ,x виході найбільшої з двох вхідних змінних i j сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом «+1" та «-1" з входом нейрона проміжного захованого xi,j xi x j асоціативного шару, призначеного для отримання вхідним оператором різниці і 35 40 45 50 55 1 UA 97941 U перетворення її пороговою активаційною функцією у значення 1/ 1 на його виході, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим x i, x j коефіцієнтом з'єднані з вхідними змінними сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару. Суттєві ознаки запропонованої ШНМ, що є достатніми у всіх випадках і характеризують запропоновану корисну модель на відміну від прототипу, полягають у тому, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими x i, x j коефіцієнтами «+1" з вхідними змінними та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення 5 10 yMAX 0,5(1 ) xi 0,5(1 ) x j i, j 15 20 та не має активаційної функції. Передбачуваний спосіб ілюструється малюнками, на яких наведено: Фіг. 1 - Схема нейронної мережі МАХ_1. Фіг. 2 - Спрощене зображення нейронної мережі МАХ_1. Фіг. 3 - Складна нейронна мережа М_МАХ_1 по фільтрації максимального числа серед ряду вхідних чисел. На фіг. 1 використано наступні позначення: 1 - нейрон захованого шару; 2 - нейрон вихідного шару; xi, x j - вхідні змінні сенсорного шару; xi,j xi x j - вхідний оператор нейрона 1 захованого шару, який отримує різницю вхідних x i, x j змінних сенсорного шару; xi,j xi x j 1/ 1 - вихід нейрона 1 захованого шару після переробки різниці пороговою активаційною функцією у значення -1 або 1; yMAX 0,5(1 ) xi 0,5(1 ) x j i, j 25 - вихід нейрона 2 без активаційної функції, що отримується його вхідним оператором. На фіг. 2 використано наступні позначення: МАХ_1 - спрощене у порівнянні з фіг. 1 умовне позначення пропонованої ШНМ "МАХ_1" з 30 x ,x yMAX двома входами i j та виходом i, j . На Фіг. 3 використано наступні позначення: МАХ_1 - спрощені позначення за фіг. 2 пропонованої ШНМ "МАХ_1", які використані для створення складної нейронної мережі М_МАХ_1 по фільтрації максимального вхідного числа серед ряду вхідних чисел; x1 2, x2 4, x3 1 x4 7, x5 9, x6 3, x7 5 - ряд вхідних чисел складної нейронної мережі , MAX 35 М_МАХ_1, серед яких вона вказує на виході максимальне значення y17 9 . Розглянемо суть роботи пропонованої ШНМ. На фіг. 1 показана схема нейронної мережі "МАХ_1". x i, x j Сенсорний шар нейронної мережі має дві вхідні змінні . Ці дві вхідні змінні мають зв'язки з відповідними ваговими коефіцієнтами «+1" та «-1" з нейроном 1 захованого шару. Нейрон 1 захованого шару має вхідний оператор, який призначений для отримання різниці xi,j xi x j x i , j вхідних змінних . Різниця вхідних змінних надходить на порогову нелінійну f ( xi,j ) 1 функцію нейрона 1, в результаті чого на виході нейрона 1 отримуємо або , якщо xi, j 0 f ( xi,j ) 1 xi, j 0 x i, x j або , якщо . Вихід та дві вхідні змінні з'єднані з нейроном 2 вихідного шару зв'язками з однаковими ваговими коефіцієнтами «+1". Нейрон 2 має 40 вхідний оператор 45 yMAX 0,5(1 ) xi 0,5(1 ) x j i, j , який видає на виході ШНМ найбільше x , x значення з двох вхідних змінних i j , і не має активаційної функції. ( xi 2, x j 4), Якщо розглянути два конкретних значення вхідних змінних то вхідний xi,j xi x j 2 4 2 оператор нейрона 1 видає значення , яке перетворюється пороговою 2 UA 97941 U функцією активації нейрона 1 у вихідну величину f ( xi,j ) 1 . Нейрон 2 не має активаційної x 4 функції і видає на власний вихід значення найбільшої вхідної змінної j , розрахованої за 5 10 15 yMAX 0,5 (1 ) xi 0,5 (1 ) x j 0,5 (1 1) 2 0,5 (1 1) 4 4 i, j вхідним оператором . Нейронна мережа виконує свої функції при розгляді як позитивних, так і негативних вхідних змінних. На фіг. 2 показане спрощене зображення нейронної мережі МАХ_1 у порівнянні з фіг. 1. На ( x 2, x j 4) yMAX 4 спрощеному зображенні вказані вхідні змінні i та вихід i, j . Вагові коефіцієнти вхідних змінних не показані з метою спрощення зображення (тому що вхідні змінні мають зв'язки з різними ваговими коефіцієнтами і загальна їх кількість дорівнює чотирьом). На фіг. 3 показана складна нейронна мережа М_МАХ_1 для фільтрації максимального , числа серед ряду вхідних чисел ( x1 2, x2 4, x3 1 x4 7, x5 9, x6 3, x7 5 ), у якій використовується спрощене зображення нейронної мережі МАХ_1 за фіг. 2. З фіг. 3 випливає, що загальна кількість нейронних мереж МАХ_1 дорівнює n 1 , де n - кількість вхідних змінних сенсорного шару. При подачі на сенсорний шар ряду вхідних чисел x1 2, x2 4, x3 1 x4 7, x5 9, x6 3, x7 5 ) мережа М_МАХ_1 попарно порівнює вхідні змінні , ( MAX 20 25 і вибирає з них найбільше значення y17 9 . Використання запропонованої нейронної мережі МАХ_1 дозволяє: зменшити витрати на обладнання за рахунок його спрощення внаслідок зменшення кількості нейронів на 30 %; зменшити витрати на обслуговування і налагодження нейронної мережі внаслідок її спрощення. Зміна знаків вхідних змінних дозволяє виділити мережею "МАХ_1" мінімальне значення чисел сенсорного шару. Джерела інформації: 1. Lippman R. P. An introduction to computing with neural nets // IEEE ASSP Magazine. Apr. 1987. - P. 4-22. 2. Руденко О. Г., Бодянський С.В. Штучні нейронні мережі. - Харків: ТОВ "Компанія СМІТ", 2006.-404 с 3. Zakharian S., Ladevig-Riebler P., Torez S. Neuronale Netze fur Ingenieure: Arbeits und Ubungsbush fur regulungstechnische Anwendungen. Braunschweig: Vieweg, 1998. 30 ФОРМУЛА КОРИСНОЇ МОДЕЛІ Нейронна мережа, яка призначена для отримання на виході найбільшої з двох вхідних змінних xi, x j сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" 35 з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці xi,j xi x j і перетворення її пороговою активаційною функцією у значення 1 / 1 на його виході, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними xi, x j сенсорного 40 шару та з виходами нейронів проміжного захованого асоціативного шару, яка відрізняється тим, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними xi, x j та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення yMAX 0,5(1 ) xi 0,5(1 ) x j та не має активаційної функції. i, j 3 UA 97941 U Комп’ютерна верстка Л. Бурлак Державна служба інтелектуальної власності України, вул. Василя Липківського, 45, м. Київ, МСП, 03680, Україна ДП “Український інститут промислової власності”, вул. Глазунова, 1, м. Київ – 42, 01601 4
ДивитисяДодаткова інформація
МПК / Мітки
МПК: G06N 3/00
Мітки: нейронна, мережа, max_1
Код посилання
<a href="https://ua.patents.su/6-97941-nejjronna-merezha-max1.html" target="_blank" rel="follow" title="База патентів України">Нейронна мережа “max_1″</a>
Попередній патент: Нейронна мережа “max_0″
Наступний патент: Спосіб улаштування енергозберігаючого конструктивного вузла “балконна плита- зовнішня стіна-плита перекриття”
Випадковий патент: Бетонна суміш