Нейрон “т_мin”
Номер патенту: 104876
Опубліковано: 25.02.2016
Автори: Турти Марина Валентинівна, Кутковецький Валентин Якович
Формула / Реферат
Нейрон "Т_MIN", який містить n входів з ваговими коефіцієнтами "1", до яких увімкнені відповідні елементи вхідного вектора X=(х1, х2, …, xj, …, хn), має n виходів для виведення вихідного вектора Y=(у1, у2, …, уj, …, уn) кожний елемент yj якого призначений для виведення значення "0", якщо відповідне значення елемента xj вхідного вектора більше мінімального значення елементів вхідного вектора X та призначений для виведення значення "1", якщо значення елемента xj вхідного вектора дорівнює мінімальному значенню елементів вхідного вектора X, який відрізняється тим, що нейрон складається з блока активаційної функції, який призначений для виконання операцій:
for j:= 1 to n do y(j):= 0;
XM:= x(l); for j:= 2 to n do if xQ) < XM then XM:= x(j);
for j:=l to n do if x(j) = XM then y(j):= 1.
Текст
Реферат: UA 104876 U UA 104876 U 5 10 15 20 25 30 35 40 45 50 55 60 Корисна модель належить до штучних нейронних мереж (ШНМ), призначених для реалізації логічного рішення стосовно виділення мінімального числа з ряду поданих чисел, яке застосовується в нейрокібернетиці і може бути використане в нейрокомп'ютерах та в штучних нейронних мережах при розв'язанні задач логічної обробки даних. Відомі нейронні мережі "MIN_0" та "MIN_1", які призначені для отримання на виході найменшої з вхідних змінних сенсорного шару [1, 2]. Вони мають n входів, до яких увімкнені відповідні елементи вхідного вектора X=(х 1, х2,…, xj, …, хn) та один вихід для виведення мінімального значення елемента вхідного вектора X=(х 1, х2,…, xj, …, хn). Недоліком цих нейронних мереж є те, що вони не призначені для переоцінки на виході всіх елементів вхідного вектора X=(х1, х2,…, xj, …, хn) у вигляді вихідного вектора Y=(у1, у2,…, уj, …, уn). Відомий ШНМ-компаратор, призначений для виділення з елементів вхідного вектора X{х 1, х2,…, хn} максимального значення, який при зміні знаків елементів вектора X здатний виділити мінімальне число [3, с. 102-106; 4]. Але ШНМ-компаратор не призначений для переоцінки на виході всіх елементів вхідного вектора X=(х 1, х2,…, xj, …, хn) у вигляді вихідного вектора Y=(у1, у2,…, уj, …, уn). Найбільш близьким аналогом по сукупності суттєвих ознак до запропонованої корисної моделі є ШНМ MAXNET. ШНМ MAXNET звичайно використовується для виділення найбільшого позитивного значення з ряду елементів вхідного вектора X{х 1, х2,…, хn}. Але ШНМ MAXNET може використовуватись і для виділення найменшого негативного елементу сигналу, для чого в мережу потрібно ввести значення вхідного вектора з протилежними знаками. Якщо елементи вхідного вектора X{х1, х2,…, хn} вміщують лише негативні числа, або позитивні та негативні числа, то достатньо змінити їх знаки на протилежні, і нейронна мережа MAXNET виділить мінімальне від'ємне число (максимальне по модулю серед усіх від'ємних чисел) у вигляді виходу "+1". Якщо числа X{х1, х2,…, хn} вміщують лише позитивні числа, то нейронна мережа MAXNET не може виділити мінімальне число, бо всі її виходи при зміні знаків чисел X{х1, х2,…, хn} будуть дорівнювати "0" [3, с. 155; 5]. У подальшому пропонований нейрон "T_MIN", призначений для виділення мінімального числа з ряду поданих елементів вхідного вектора X{х 1, х2,…, хn}, порівнюємо з мережею MAXNET, у якої знаки вхідних чисел вважаємо зміненими на протилежні. При цьому основний напрямок роботи MAXNET (пошук максимального числа) не змінюється, що й описується при розгляді її принципу роботи. Відома ШНМ MAXNET була запропонована як доповнення до нейронної мережі Хеммінга [5]. У найближчому аналозі мережа MAXNET має n входів з ваговими коефіцієнтами "1", до яких увімкнені відповідні елементи вхідного вектора X=(х 1, х2,…, xj, …, хn), має n виходів для виведення вихідного вектора Y=(у1, у2,…, уj, …, уn), кожний елемент yj якого призначений для виведення значення "0", якщо відповідне значення елемента x j вхідного вектора більше мінімального значення елементів вхідного вектора X та призначений для виведення значення "1", якщо значення елемента xj вхідного вектора дорівнює мінімальному значенню елементів вхідного вектора X [1; 2, с. 51-52]. Недоліком мережі MAXNET є збільшена кількість нейронів, складність навчання та ускладнення розрахунків. Причинами, які перешкоджають одержанню очікуваного технічного результату у прототипі MAXNET (спрощення архітектури, зменшення вартості ШНМ із-за зменшення кількості нейронів, зменшення витрат на обслуговування і налагодження ШНМ внаслідок спрощення розрахунків), є прийнята архітектура ШНМ та алгоритм розв'язку задачі. Недоліками прийнятої за прототип ШНМ MAXNET є: - ускладнена архітектура; - збільшення вартості через збільшену кількість нейронів; - збільшення витрат на обслуговування і налагодження ШНМ внаслідок ускладнення розрахунків. Задачею корисної моделі є зменшення вартості обладнання та зменшення витрат на обслуговування та налагодження внаслідок зменшення кількості нейронів та спрощення розрахунків. Загальні суттєві ознаки запропонованого нейрону "T_MIN", які співпадають з суттєвими ознаками найближчого аналога, полягають у тому, що нейрон "T_MIN" має n входів з ваговими коефіцієнтами "1", до яких увімкнені відповідні елементи вхідного вектора X=(х1, х2,…, xj, …, хn), має n виходів для виведення вихідного вектора Y=(у1, у2,…, уj, …, уn), кожний елемент yj якого призначений для виведення значення "0", якщо відповідне значення елемента x j вхідного 1 UA 104876 U 5 10 15 20 25 30 35 40 вектора більше мінімального значення елементів вхідного вектора X та призначенийдля виведення значення "1", якщо значення елемента xj вхідного вектора дорівнює мінімальному значенню елементів вхідного вектора X. Суттєві ознаки запропонованого нейрону, що є достатніми у всіх випадках і характеризують запропонований винахід на відміну від найближчого аналога, полягають у тому, що нейрон складається з блока активаційної функції, який призначений для виконання операцій: for j:= 1 to n do y(j):= 0; XM:= x(1); for j:=2 to n do if x(j) < XM then XM:= x(j); for j:= 1 to n do if x(j) = XM then y(j):= 1; Запропонований нейрон ілюструється кресленням, на якому наведено схему нейрону "T_MIN" та використані наступні позначення: - X=(х1, х2,…, xj, …, хn) - вхідний вектор нейрону "T_MIN"; - Y=(у1, у2,…, уj, …, уn) - вихідний вектор нейрону "T_MIN"; - N - нейрон "T_MIN". Розглянемо суть роботи пропонованого нейрону "T_MIN" згідно наведеної фігури. При подачі на входи нейрону "T_MIN" вхідного вектора X=(х 1, х2,…, xj, …, хn) нейрон використовує блок активаційної функції, який призначений для виконання операцій: for j:= 1 to n do y(j):= 0; XM:= x(1); for j:= 2 to n do if x(j) < XM then XM:= x(j); for j:= 1 to n do if x(j) = XM then y(j):= 1. У результаті на виході нейрону отримуємо вихідний вектор Y=(у1, у2,…, уj, …, уn), кожний елемент yj якого дорівнює "0", якщо відповідне значення елемента x j вхідного вектора більше мінімального значення ХМ елементів вхідного вектора X та дорівнює "1", якщо значення елемента xj вхідного вектора дорівнює мінімальному значенню ХМ елементів вхідного вектора X. Нейрона мережа "T_MIN" не потребує навчання та дозволяє: зменшити витрати за рахунок його спрощення внаслідок зменшення кількості нейронів; зменшити витрати на обслуговування і налагодження нейронної мережі внаслідок спрощення розрахунків. Джерела інформації: 1. Кутковецький В.Я., Турти М.В. Нейронна мережа "MIN_0". Патент України на корисну модель G 06N 3/02, G 06N 7/02, № 98308, 27.04.2015, Бюл. № 8. - 5 с. 2. Кутковецький В.Я., Турти М.В. Нейронна мережа "MIN_1". Патент України на корисну модель G 06N 3/02, G 06N 7/02, № 98309, 27.04.2015, Бюл. № 8. - 5 с. 3. Руденко О.Г., Бодянський С.В. Штучні нейронні мережі. - Харків: ТОВ "Компанія СМІТ", 2006. - 404 с. 4. Zakharian S., Ladevig-Riebler P., Torez S. Neuronale Netze fur Ingenieure: Arbeits und Ubungsbush fur regulungstechnische Anwendungen. - Braunschweig: Vieweg, 1998. 5. Lippman R.P. An introduction to computing with neural nets //IEEE ASSP Magazine. - Apr. 1987. - P. 4-22. ФОРМУЛА КОРИСНОЇ МОДЕЛІ 45 50 Нейрон, який містить n входів з ваговими коефіцієнтами "1", до яких увімкнені відповідні елементи вхідного вектора X=(х1, х2, …, xj, …, хn), має n виходів для виведення вихідного вектора Y=(у1, у2, …, уj, …, уn) кожний елемент yj якого призначений для виведення значення "0", якщо відповідне значення елемента xj вхідного вектора більше мінімального значення елементів вхідного вектора X та призначений для виведення значення "1", якщо значення елемента xj вхідного вектора дорівнює мінімальному значенню елементів вхідного вектора X, який відрізняється тим, що нейрон складається з блока активаційної функції, який призначений для виконання операцій: for j:= 1 to n do y(j):= 0; XM:= x(1); for j:= 2 to n do if x(j) < XM then XM:= x(j); for j:= l to n do if x(j) = XM then y(j):= 1. 2 UA 104876 U Комп’ютерна верстка І. Скворцова Державна служба інтелектуальної власності України, вул. Василя Липківського, 45, м. Київ, МСП, 03680, Україна ДП “Український інститут інтелектуальної власності”, вул. Глазунова, 1, м. Київ – 42, 01601 3
ДивитисяДодаткова інформація
МПК / Мітки
МПК: G06N 3/00
Код посилання
<a href="https://ua.patents.su/5-104876-nejjron-tmin.html" target="_blank" rel="follow" title="База патентів України">Нейрон “т_мin”</a>
Попередній патент: Нейрон “т_мах”
Наступний патент: Приймач-передавач нвч системи зв’язку з частотною модуляцією несучої частоти
Випадковий патент: Пристрій для ендоскопічної аспірації