Спосіб побудови і навчання нейронечіткої мережі
Формула / Реферат
Спосіб побудови і навчання нейронечіткої мережі, який полягає в тому, що задають навчальну вибірку екземплярів, які характеризують набором значень параметрів, виділяють нечіткі терми за параметрами, на основі вибірки будують структуру та визначають параметри нейронечіткої мережі, який відрізняється тим, що автоматично для кожного параметра вибірки визначають кількість інтервалів розбиття діапазону його значень, за допомогою ЕОМ дані навчальної вибірки перетворюють у параметри інтервалів, після чого автоматично формують функціональні блоки визначення приналежності екземплярів до прямокутних областей у просторі параметрів вибірки на перетині інтервалів, автоматично визначають номери класів блоків та коефіцієнти упевненості класів блоків, об'єднують суміжні блоки, які належать до одного й того ж класу, виділяють підмножину екземплярів навчальної вибірки, які належать до блоків, номери класів яких не співпадають з номерами класів екземплярів, для яких формують окремі інтервали, що об'єднують у блоки, автоматично у неітеративному режимі задають за визначеними правилами параметри нейронів: функції належності для нечітких термів, вагові й активаційні функції, а також значення вагових коефіцієнтів.
Текст
Спосіб побудови і навчання нейронечіткої мережі, який полягає в тому, що задають навчальну вибірку екземплярів, які характеризують набором значень параметрів, виділяють нечіткі терми за параметрами, на основі вибірки будують структуру та визначають параметри нейронечіткої мережі, який відрізняється тим, що автоматично для кожного параметра вибірки визначають кількість інтервалів розбиття діапазону його значень, за допомогою ЕОМ дані навчальної вибірки 3 46006 4 режі внаслідок занесення усієї навчальної вибірки Таким чином, у порівнянні з прототипом задо її структури та параметрів. пропоноване технічне рішення містить вищевказаВ основу корисної моделі поставлено завданні істотні ознаки і, отже, відповідає вимозі „новизня підвищення рівня автоматизації та швидкості на". побудови і навчання нейро-нечіткої мережі розпіОзнаки, що відрізняють технічне рішення, яке знаванню образів. заявляється, від прототипу, не виявлені в інших Поставлене завдання вирішується тим, що у технічних рішеннях при вивченні цієї галузі техніки способі побудови і навчання нейро-нечіткої мережі і, отже, забезпечують рішенню, що заявляється, задають навчальну вибірку екземплярів, які харак„винахідницький рівень". теризують набором значень параметрів, виділяють Побудову та навчання нейро-нечіткої мережі нечіткі терми за параметрами, на основі вибірки здійснюють у такий спосіб. будують структуру та визначають параметри нейСпочатку формують навчальну вибірку екземро-нечіткої мережі. Причому автоматично для коплярів-прикладів , для чого вимірюють знажного параметра вибірки визначають кількість інчення параметрів (ознак), які характеризують їхній тервалів розбиття діапазону його значень, за стан або властивості стосовно вирішуваного задопомогою ЕОМ дані навчальної вибірки перетвовдання розпізнавання образів або діагностики: рюють у параметри інтервалів, після чого автомаx = { x s }, y = { y s }, x s = { x s }, тично формують функціональні блоки визначення j приналежності екземплярів до прямокутних обласs - значення j-гo параметра 5-го екземпде x тей у просторі параметрів вибірки на перетині інj тервалів, автоматично визначають номери класів ляра вибірки, S = 1,..., S; j = 1... N; блоків та коефіцієнти упевненості класів блоків, S- кількість екземплярів, об'єднують суміжні блоки, які належать до одного N- кількість параметрів, що характеризують й того ж класу, виділяють підмножину екземплярів екземпляри, навчальної вибірки, які відносяться до блоків, номери класів яких не співпадають з номерами клаy s - значення вихідного параметра, співставсів екземплярів, для яких формують окремі інтерлене s-му екземпляру навчальної вибірки, вали, що об'єднують у блоки, автоматично у y s Î {k }, k 1,...,K; = неітеративному режимі задають за визначеними K - кількість класів (образів), на які розділяють правилами параметри нейронів: функції належноекземпляри. сті для нечітких термів, вагові й активаційні функЗадану навчальну вибірку екземплярів із зіції, а також значення вагових коефіцієнтів. ставленими номерами класів у вигляді відповідних У порівнянні з прототипом відмінними ознакамасивів даних вводять до пам'яті ЕОМ. ми є: здійснення побудови і навчання нейроНа основі масивів даних вибірки у пам'яті ЕОМ нечіткої мережі пропонованим способом в неітераза віссю кожної j-ої ознаки, j=1,…,N, визначають тивному режимі із автоматичним визначенням паодновимірні відстані між екземплярами, які занораметрів структурних блоків нейро-нечіткої мережі: сять до відповідного масиву даних у пам'яті ЕОМ: вагових коефіцієнтів, вагових та активаційних функцій нейронів, виключення необхідності розрахунку p R j ( s, p ) = x s - x . похідних цільової функції по вагам мережі, властиj j вого градієнтним методам навчання на основі техСеред отриманих відстаней знаходять мініманіки зворотного поширення помилки, автоматичне льну відстань, більшу за нуль: R,= min формування нечітких термів пропонованим спосоR j = min(s, p) {R j ( s, p ) R j (s, p ) > 0, j = 1,..., N. бом для параметрів образів (діагностованих вироs =1 S ,..., бів) та встановлення кількості термів без залученp = s +1,...,S ня людини, уникнення проблеми вибору Для кожної ознаки автоматично визначають початкових значень ваг для навчання. кількість інтервалів розбиття діапазону її значень: Технічним результатом корисної моделі є: збільшення рівня автоматизації процесу побудови та max( x j ) - min( x j ) , j = 1,..., N. . nj = навчання нейро-нечіткої мережі, що виявляється у Rj виключенні безпосередньої участі людини при формуванні структури та визначенні параметрів а також довжину інтервалу значень, що спонейро-нечіткої мережі, які здійснюються автоматистерігаються: чно ЕОМ; підвищення швидкості побудови та наr j = max( x j ) - min( x j ), j = 1 N, , ,..., вчання нейро-нечіткої мережі внаслідок неітератипісля чого розбивають вісь значень j-го паравного характеру її побудови; виявлення у нейрометра на n j - інтервалів. нечіткої мережі нової властивості - здатності мережі надавати суб'єктивну оцінку вірогідності розДалі за допомогою ЕОМ дані навчальної вибіпізнавання образів, що у практичних застосуванрки перетворюють у параметри інтервалів, для нях дозволяє скоротити втрати від прийняття чого визначають координати лівих (l) і правих (r) недостатньо впевнених рішень мережі. меж для кожного p-го інтервалу j-го параметра, які У технічному рішенні, що заявляється, нові заносять до відповідних масивів у пам'яті ЕОМ: ознаки при взаємодії з відомими дають новий техr j нічний результат, що дозволяє вирішити поставl j,p = min( x j ) + (p - 1) лене завдання. nj 5 r j,p = min( x j ) + p rj nj 46006 6 параметри яких визначають у N - вимірному просторі ознак на перетині відповідних інтервалів їхніх значень та заносять до B q, j - номер інтервалу j-гo , j = 1,...,N; p = 1 n j . ,..., Після чого автоматично формують функціональні блоки визначення приналежності екземплярів до прямокутних областей N {B q }, q = 1,...,Q, Q = P n j , j =1 параметра, що відповідає q-му блоку. Далі автоматично визначають номери класів для блоків прямокутних областей у N - вимірному просторі параметрів: ì s t s t ï {k y = y = k, l j,Bq, j £ x j £ rj,Bq, j, l j,Bq, j £ x j £ rj,Bq, j, ï ï s = 1,2,..., S, t = s + 1 S; j = 1,..., N; k = 1,..., K }; ,..., Kq = í ï 0, Ø$s = 1 2,..., S; l j,Bq, j £ x s £ xs £ rj,Bq, j, j = 1 N; ,..., , j j ï ï - 1, інакше. î Установлюють значення коефіцієнту упевненості класифікації для блоків: ì ï 1, K q > 0; aq = í ï0, K q £ 0. î Після чого для тих блоків, K q = 0, q = 1,..., Q, , встановлюють: для яких K q = arq max Sk , q k = 1,...,K R(B q,Bp ) = номер класу. Для цього обчислюють відстань між прямокутними областями q-го та p-го функціональних блоків, q = 1,..., Q, p = q + 1,..., Q, як: N N j =1 j =1 å rj-1(Cq, j - Cp, j )2 або R(Bq,B q ) = å rj-1 Cq, j - Cp, j , . де C q, j = де S k - кількість екземплярів k-го класу, що q потрапили до q-гo блоку. Для тих блоків, у яких номер класу K q = 0, q = 1,..., Q, , визначають розрахунковий ( ) 1 l j,Bq, j + r j,Bq, j , причому R(B q , B p ) = R(B q , B p ). 2 Після чого визначають міру впливу сукупності блоків, що належать до k-го класу, на p-ий блок з невідомою класифікацією: Fk = p ü 1 Q ì ï - R 2 (B q,B p ) K q = k, K p = 0, q ¹ pý, å íS qе Lk ï þ q =1 î q = 1 Q, p = q + 1 Q, ,..., ,..., де L k - кількість блоків, що належать до k-то класу, S q - кількість екземплярів навчальної вибірки, що потрапили до q-гo блоку. Далі встановлюють номер класу для p-го блоку з невідомим номером класу (Кр=0) за формулою: k, K p = arq max F p p = 1,..., Q, k = 12,...,K , та модифікують значення коефіцієнтів упевненості для блоків: Kq a q = {F q a = 0}, q = 1,..., Q. Після чого об'єднують суміжні блоки, які належать до одного й того ж класу: для "q, p = 1 Q; q ¹ p : якщо K q > 0, K q = Kp та $j : Bq,j - Bp, j = 1 "i ¹ j : Bq,i = Bp,i, i = 1,..., N, j = 1 N ; ,..., , ,..., тоді встановлюють: 7 46006 aq aq = 8 N N P (rj,Bq, j - l j,Bq, j ) + ap P (rj,Bq, j - l j,Bq, j ) j =1 N j =1 N P (rj,Bq, j - l j,Bq, j ) + P (rj,Bq, j - l j,Bq, j ) , j =1 j =1 n j = n j + 1, l j,nj = l j, min(Bq, j, ,Bq, j ), rj,nj = r j, max(Bq, j ,Bp, j) , Bq, j = n j = Kp = 0, ap = 0, Bp,i = 0 , i = 1,..., N. Після об'єднання блоків з навчальної множини виділяють підмножину екземплярів , x* = { xs* }, x s* = { xs* j}, y* = { y s* }, j = 1 N; s* = 1,..., S * , ,..., які відносяться до блоків, номери класів яких не співпадають з номерами класів екземплярів. s* Для кожного екземпляра x автоматично формують інтервали (терми) за параметрами та заносять до B z + s*, j . номери інтервалів для кож ного j-го параметра, що відповідають екземпляру xs * , а також встановлюють: = x s * - gR j j s* r j,B z + s *, j = x + gR j, j K z + s* = y s* , , a z +s* = 1 s* = 1,..., S*, j = 1 N, ,..., де g - константа, g Î (0,1), пропонується задавати g =0,1. Після чого автоматично задають параметри нейронів - елементарних функціональних обчислювальних блоків нейро-нечіткої мережі. Для цього спочатку встановлюють функції l j,B z + s *, j s належності розпізнаваного екземпляра x нечітких термів: до ì 0, x s < l j,p ; ï s -l ï x j,p ï ,l £ x s < 0,5(r j,p - l j,p ); ï 0,5(r j,p - l j,p ) j,p ï ï m j,p ( x s ) = í r j,p - x s ï , 0,5(r j,p - l j,p ) < x s £ r j,p ; ï 0,5(r j,p - l j,p ) ï ï 0, r < x s j,p ï ï î Потім визначають вагові функції нейронів мережі: ì (2,i) ( 2,i) ü (2,i) æ ( 2,i) ( 2,i) ö j , i = 1 2,...,Q; j = 1,..., z + NS*; , = max í W ,X ,X W j ý j ÷ j ç j è ø þ î j ì (3,i) (3,i) ü ,i = 1, 2,..., K; j = 1,..., Q + S*; ,X j( 3,i) æ W (3,i), X(3,i) ö = miníW j ý j ÷ j ç j è ø þ î j ì , j( 4,i) æ W ( 4,i), X( 4,i) ö = miníW ( 4,i), X( 4,i) ü ,i = 1 2; j = 1,..., K; j ý j ÷ j ç j è ø þ î j де z = N å n j, j= 1 X( h,i) - значення сигналу на j-му вході i-го нейроj на h -го шару мережі, W (h,i) - вага j-го входу i-го нейрона h -го шаj ру мережі; j( h,i) - вагова функція j-го входу i-го нейрона j h -го шару мережі. Далі задають функції активації нейронів: ( 2,i) (2,i), (2,i) ö ( 2,i) ( 2,i) ( 2,i) y(2,i) æ j j ( w j x j ) ÷ = min { j j ( w j , x j )}, ç ø è i = 1 Q; j = 1,..., z + NS*; ,..., y(3,i) æ j(3,i) ( w (3,i), x( 3,i) ) ö = max {j( 3,i) ( w(3,i), x(3,i) )} ç j ÷ j j j j j è ø i = 1 K; j = 1,..., Q + S*; ,..., y( 4,1) æ j( 4,1) ( w ( 4,1), x( 4,1) ) ö = arq max {j( 3,i) ( w(3,i), x(3,i) )}; ÷ ç j j j j j j ø è j ( 4,2) ( w ( 4,2), x( 4,2) ) ö = max {j( 4,2) ( w ( 4,2), x( 4,2) )}, y( 4,2) æ j ÷ ç j j j j j j ø è j де y(h,i) - функція активації i-го нейрона h-го шару мережі. Після чого визначають значення вагових коефіцієнтів нейронів мережі: ì1 h = 2, Bi,p ¹ j, i = 1 Q + S*, p = 1 N, j = 1 z + NS*; , ,..., ,..., ,..., ï 0, h = 2, Bi,p ¹ j, i = 1 Q + S*, p = 1 N, j = 1 z + NS *; ,..., ,..., ,..., ï (h,i ï a j, h = 3, i = K j, i = 1 K, j = 1 Q + S*; ,..., ,..., =í W j ï 0, h = 3, i ¹ K j, i = 1 K, j = 1 Q + S*; ,..., ,..., ï ï 1, h = 4, i = 1 2, j = 1,..., K. , î У результаті одержують нейро-нечітку мережу, схему якої зображено на рисунку (Фіг.). Після побудови та навчання нейро-нечіткої мережі запропонованим способом її можна використовувати для вирішення завдань розпізнавання образів і неруйнівної діагностики виробів. Для цього формують розпізнавану вибірку екземплярів (діагностованих виробів) з тим же набором параметрів, які використовувалися для характеристики екземплярів навчальної вибірки. Вибірку вводять у вигляді відповідного масиву даних. 9 46006 10 Потім послідовно для кожного розпізнаваного Після чого перший нейрон четвертого шару здійснює дефаззіфікацію результату - перетвоекземпляра x s з цієї вибірки на входи нейрорює його у чіткий номер класу y для розпізнаванечіткої мережі подають значення параметрів ного екземпляра x s , а другий нейрон четвертого розпізнаваного екземпляра, які побудована мережа перетворює у номер класу цього екземпляшару визначає вірогідність класифікації R y . ра. Технічним результатом внаслідок викорисВажливою особливістю нейро-нечіткої меретання пропонованого способу є: жі, побудованої і навченої на основі запропоно- збільшення рівня автоматизації процесу пованого способу, є те, що вона одночасно поєднує будови та навчання нейро-нечіткої мережі, що в собі два види функціональних блоків розбиття виявляється у виключенні безпосередньої участі простору параметрів: людини при формуванні структури та визначенні - блоки, сформовані на основі прямокутного параметрів нейро-нечіткої мережі, які здійснюрозбиття (на рис. виділені пунктиром), які узаються автоматично ЕОМ; гальнюють властивості близько розташованої - підвищення швидкості побудови та навчанмножини екземплярів; ня нейро-нечіткої мережі внаслідок неітеративно- блоки (на рис. виділені штрихами), які видіго характеру її побудови; ляють локальні особливості та відповідають - виявлення у нейро-нечіткої мережі нової окремим екземплярам, номера класів яких не властивості - здатності мережі надавати суб'єктизбігаються з номерами класів, до яких відносятьвну оцінку вірогідності розпізнавання образів Ry, ся блоки прямокутного розбиття. що у практичних застосуваннях дозволяє скороНейрони першого шару обчислюють принатити втрати від прийняття недостатньо впевнених лежності розпізнаваного екземпляра до термів рішень мережі. параметрів m j,p ( x s ) (фаззіфікація). Джерела інформації: 1. Круглов В.В. Искусственные нейронные Нейрони другого шару визначають приналесети. Теория и практика / В.В. Круглов, В.В. Божності до блоків m q ( x s ) . рисов. - М.: Горячая линия-Телеком, 2002. С.123-135. Нейрони третього шару поєднують приналежності до блоків у приналежності до класів mk ( x s ) . 11 Комп’ютерна верстка M. Мацело 46006 Підписне 12 Тираж 28 прим. Міністерство освіти і науки України Державний департамент інтелектуальної власності, вул. Урицького, 45, м. Київ, МСП, 03680, Україна ДП “Український інститут промислової власності”, вул. Глазунова, 1, м. Київ – 42, 01601
ДивитисяДодаткова інформація
Назва патенту англійськоюMethod for bulding and learning a neural network
Автори англійськоюSubbotin Serhii Oleksandrovych
Назва патенту російськоюСпособ построения и обучения нейронечеткой сети
Автори російськоюСубботин Сергей Александрович
МПК / Мітки
Мітки: навчання, спосіб, нейронечіткої, мережі, побудови
Код посилання
<a href="https://ua.patents.su/6-46006-sposib-pobudovi-i-navchannya-nejjronechitko-merezhi.html" target="_blank" rel="follow" title="База патентів України">Спосіб побудови і навчання нейронечіткої мережі</a>
Попередній патент: Спосіб одержання макаронних виробів
Наступний патент: Вихідний контур циліндричних зубчастих коліс
Випадковий патент: Спосіб ліквідації прихвату колони труб в свердловині