Завантажити PDF файл.

Формула / Реферат

Нейронна мережа "МАХ_0", що призначена для отримання на виході найбільшої з двох вхідних змінних (хi, xj) сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці Dхi,j=xi-xj і перетворення її пороговою активаційною функцією, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними (хi, xj) сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару, яка відрізняється тим, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції D=0/1, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними (хi, xj) та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення уi,jМАХ=D·xi+(1-D)·xj та не має активаційної функції.

Текст

Реферат: UA 97940 U UA 97940 U 5 10 15 20 25 30 35 40 45 50 55 60 Корисна модель належить до штучних нейронних мереж (ШНМ), призначених для реалізації логічного рішення стосовно виділення максимального числа з ряду поданих чисел, яке застосовується в нейрокібернетиці і може бути використано в нейрокомп'ютерах та штучних нейронних мережах при розв'язанні задач логічної обробки даних. Відома нейронна мережа MAXNET була запропонована як доповнення до ШНМ Хеммінга [1] і призначена для виділення з початкового введеного вектора Х{х1, х2,…, хn} елемента з максимальним позитивним значенням. Мережа MAXNET призначена для виділення лише одного додатного елемента з найбільшим значенням. Тому на виході MAXNET лише один сигнал має ненульове значення. Якщо усі елементи вхідного вектора є від'ємними, то мережа буде мати на виході лише нульові значення. Ця ж сама мережа може використовуватися й для виділення найменшого негативного елемента сигналу, для чого в мережу потрібно ввести значення вхідного вектора з протилежними знаками. Вважаємо, що вхідний вектор Х{х1, х2,…, хn} складається з числових змінних, кожна з яких підключена до входу одного власного нейрона, які у сукупності складають один шар мережі MAXNET. Кожний нейрон має рекурсивний позитивний зворотний зв'язок на власний вхід та негативний зворотний зв'язок на входи інших нейронів. Початкові дані у вигляді Х{х1, х2,…, хn} вводять в MAXNET лише один раз - на початку рекурентних розрахунків (далі вхідні дані вимикаються і не використовуються). При цьому всі нейрони одного шару є конкуруючими, а перевага надається нейрону, який має найбільший вхідний сигнал, тобто підсилюється (збільшується) вага лише одного нейрона по принципу навчання "переможець отримує все". Ваги ж інших (неактивних) нейронів або не змінюються, або зменшуються. Початкові сигнали Х{х1, х2,…, хn} перераховуються у процесі рекурентних розрахунків кілька разів до виділення з них лише одного елемента - переможця з найбільшим позитивним числовим значенням виходу "+1" після проходження активаційної функції (усі інші елементи набувають від'ємного значення і після проходження активаційної функції на виході MAXNET отримують нульові значення "0"). Цикл розрахунків повторюється до отримання лише одного переможця [1; 2, с. 51-52]. Недоліком мережі MAXNET є складність навчання, збільшений час ідентифікації максимального числа та виділення не самого числа-переможця, а лише позначення (маркування) переможця. Найбільш близьким до заявленої нейронної мережі за сукупністю суттєвих ознак є вибраний за прототип відомий ШНМ-компаратор, який призначений для отримання на виході найбільшої з двох вхідних змінних (хi, xj) сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" із входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці Δх i, j=xi-xj і перетворення її пороговою активаційною функцією; має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними (хi, xj) сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару [2, с. 102-106; 3]. Причинами, які перешкоджають одержанню очікуваного технічного результату у прототипі (спрощення архітектури, зменшення вартості ШНМ через зменшення кількості нейронів на 30 %, зменшення витрат на обслуговування і налагодження ШНМ внаслідок спрощення архітектури) є прийнята архітектура ШНМ та алгоритм розв'язку задачі. Недоліками прийнятої за прототип ШНМ є: - ускладнена архітектура; - збільшення вартості через збільшення кількості нейронів на 30 %; - збільшення витрат на обслуговування і налагодження ШНМ внаслідок збільшеної її складності. Технічним результатом пропонованої корисної моделі є зменшення вартості обладнання та зменшення витрат на обслуговування і налагодження за рахунок зменшення кількості нейронів. Загальні суттєві ознаки запропонованої ШНМ, які співпадають з суттєвими ознаками прототипу, полягають у тому, що нейронна мережа "МАХ_0" призначена для отримання на виході найбільшої з двох вхідних змінних (xi, xj) сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці Х{х 1, х2,…, хn} і перетворення її пороговою активаційною функцією, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними (хi, xj) сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару. Суттєві ознаки запропонованої ШНМ, що є достатніми у всіх випадках і характеризують запропоновану корисну модель на відміну від прототипу, полягають у тому, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції Δ=0/1, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими 1 UA 97940 U 5 10 15 20 25 30 35 40 45 50 55 60 ваговими коефіцієнтами "+1" з вхідними змінними (х i, xj) та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході значення уi, МАХ =Δ·xi+(1-Δ)·xj та не має активаційної функції. j Передбачуваний спосіб ілюструється кресленнями, на яких наведено: Фіг. 1 - Схема нейронної мережі МАХ_0; Фіг. 2 - Спрощене зображення нейронної мережі МАХ_0; Фіг. 3 - Складна нейронна мережа М_МАХ_0 по фільтрації максимального числа серед ряду вхідних чисел. На фіг. 1 використані наступні позначення: - 1 - нейрон захованого шару; - 2 - нейрон вихідного шару; - xi, xj - вхідні змінні сенсорного шару; - хi, j=xi-xj - вхідний оператор нейрона 1 захованого шару, який отримує різницю вхідних змінних (хi, xj) сенсорного шару; - Δ=0/1 - вихід нейрона 1 захованого шару після переробки різниці хi, j=xi-xj пороговою активаційною функцією у значення 0 або 1; МАХ - уi, j =·xi+(1-Δ)·xj - вихід нейрона 2 без активаційної функції, що отримується його вхідним оператором. На фіг. 2 використані наступні позначення: - МАХ_0 - спрощене (у порівнянні з фіг. 1) умовне позначення пропонованої ШНМ "МАХ_0" з МАХ двома входами (хi, xj) та виходом уi, j . На фіг. 3 використані наступні позначення: - МАХ_0 - спрощені позначення за фіг. 2 пропонованої ШНМ "МАХ_0", які використані для створення складної нейронної мережі М_МАХ_0 для фільтрації максимального вхідного числа серед ряду вхідних чисел; - х1=2, х2=4, х3=1, х4=7, х5=9, х6=3, х7=5 - ряд вхідних чисел складної нейронної мережі МАХ М_МАХ_0, серед яких вона вказує на виході максимальне значення у1-7 =9. Розглянемо суть роботи пропонованої ШНМ. На фіг. 1 показана схема нейронної мережі "МАХ_0". Сенсорний шар нейронної мережі має дві вхідні змінні (хi, xj). Ці дві вхідні змінні мають зв'язки з відповідними ваговими коефіцієнтами "+1" та "-1" з нейроном 1 захованого шару. Нейрон 1 захованого шару має вхідний оператор, який призначений для отримання різниці вхідних змінних хi, j=xi-xj. Різниця вхідних змінних хi, j надходить на порогову нелінійну функцію нейрона 1, в результаті чого на виході нейрона 1 отримуємо або Δ=f(хi, j)=0, якщо Δхi, j≤0, або Δ=f(хi, j)=1, якщо хi, j>0. Вихід Δ та дві вхідні змінні (хi, xj) з'єднані з нейроном 2 вихідного шару зв'язками з однаковими ваговими коефіцієнтами "+1". Нейрон 2 має вхідний оператор уi, МАХ =·xi+(1-)·xj, який видає на виході ШНМ найбільше значення з двох вхідних змінних (х i, xj), і j не має активаційної функції. Якщо розглянути два конкретних значення вхідних змінних (xi=2, xj=4), то вхідний оператор нейрона 1 видає значення хi, j=xi-xj=2-4=-2, яке перетворюється пороговою функцією активації нейрона 1 у вихідну величину Δ=f(хi, j)=0. Нейрон 2 не має активаційної функції і видає на власний вихід значення найбільшої вхідної змінної xj=4, розрахованої за вхідним оператором уi, МАХ =·xi+(1-)·xj=0·2+(1-0)·4=4. Нейронна мережа виконує свої функції при розгляді як j позитивних, так і негативних вхідних змінних. На фіг. 2 показане спрощене зображення нейронної мережі МАХ_0 у порівнянні з фіг. 1. На МАХ спрощеному зображенні вказані вхідні змінні (xi=2, xj=4) та вихід уi, j =4. Вагові коефіцієнти вхідних змінних не показані з метою спрощення зображення (тому що вхідні змінні мають зв'язки з різними ваговими коефіцієнтами і загальна їх кількість дорівнює чотирьом). На фіг. 3 показана складна нейронна мережа М_МАХ_0 по фільтрації максимального числа серед ряду вхідних чисел (х1=2, х2=4, х3=1, х4=7, х5=9, х6=3, х7=5), у якій використовується спрощене зображення нейронної мережі МАХ_0 за фіг. 2. З фіг. 3 випливає, що загальна кількість нейронних мереж МАХ_0 дорівнює (n-1), де n - кількість вхідних змінних сенсорного шару. При подачі на сенсорний шар ряду вхідних чисел (х 1=2, х2=4, х3=1, х4=7, х5=9, х6=3, х7=5) МАХ мережа М_МАХ_0 попарно порівнює вхідні змінні і обирає з них найбільше у1-7 =х5=9. Використання запропонованої нейронної мережі МАХ_0 дозволяє: зменшити витрати на обладнання за рахунок його спрощення внаслідок зменшення кількості нейронів на 30 %; зменшити витрати на обслуговування і налагодження нейронної мережі внаслідок її спрощення. Зміна знаків вхідних змінних дозволяє виділити мережею "МАХ_0" мінімальне значення чисел сенсорного шару. 2 UA 97940 U 5 Використана інформація: 1. Lippman R.P. An introduction to computing with neural nets // IEEE ASSP Magazine. - Apr. 1987. - P. 4-22. 2. Руденко О.Г. Штучні нейронні мережі / О.Г. Руденко, С.В. Бодянський. - Харків: ТОВ "Компанія СМІТ", 2006. - 404 с. 3. Zakharian S., Ladevig-Riebler P., Torez S. Neuronale Netze fur Ingenieure: Arbeits und Ubungsbush fur regulungstechnische Anwendungen. - Braunschweig: Vieweg, 1998. ФОРМУЛА КОРИСНОЇ МОДЕЛІ 10 15 20 Нейронна мережа "МАХ_0", що призначена для отримання на виході найбільшої з двох вхідних змінних (хi, xj) сенсорного шару, кожна з яких має зв'язок з відповідним ваговим коефіцієнтом "+1" та "-1" з входом нейрона проміжного захованого асоціативного шару, призначеного для отримання вхідним оператором різниці хi,j=xi-xj і перетворення її пороговою активаційною функцією, має вихідний нейрон вихідного реагуючого шару, входи якого з однаковим позитивним ваговим коефіцієнтом з'єднані з вхідними змінними (х i, xj) сенсорного шару та з виходами нейронів проміжного захованого асоціативного шару, яка відрізняється тим, що проміжний захований асоціативний шар складається з одного нейрона з виходом порогової активаційної функції =0/1, нейрон вихідного реагуючого шару з'єднаний своїми входами з однаковими ваговими коефіцієнтами "+1" з вхідними змінними (х i, xj) та виходом нейрона проміжного захованого асоціативного шару, має вхідний оператор для розрахунку на виході МАХ значення уi,j =·xi+(1-)·xj та не має активаційної функції. 3 UA 97940 U Комп’ютерна верстка Л. Литвиненко Державна служба інтелектуальної власності України, вул. Василя Липківського, 45, м. Київ, МСП, 03680, Україна ДП “Український інститут промислової власності”, вул. Глазунова, 1, м. Київ – 42, 01601 4

Дивитися

Додаткова інформація

МПК / Мітки

МПК: G06N 3/02, G06N 7/02

Мітки: нейронна, max_0, мережа

Код посилання

<a href="https://ua.patents.su/6-97940-nejjronna-merezha-max0.html" target="_blank" rel="follow" title="База патентів України">Нейронна мережа “max_0″</a>

Подібні патенти