Спосіб побудови нейронечіткої мережі для апроксимації кількісних залежностей при діагностуванні виробів

Номер патенту: 59633

Опубліковано: 25.05.2011

Автор: Субботін Сергій Олександрович

Завантажити PDF файл.

Формула / Реферат

Спосіб побудови нейронечіткої мережі для апроксимації кількісних залежностей при діагностуванні виробів, який полягає у тому, що задають навчальну вибірку діагностованих виробів, які характеризують набором значень ознак, виділяють нечіткі терми за параметрами, на основі вибірки будують структуру та визначають параметри нейронечіткої мережі; який відрізняється тим, що здійснюють дискретизацію вихідної ознаки, автоматично для кожної вхідної ознаки діагностованих виробів визначають кількість інтервалів розбиття діапазону її значень, за допомогою ЕОМ дані навчальної вибірки перетворюють у параметри інтервалів, встановлюють інтервали різних ознак, що дублюються, які групують та з кожної групи інтервалів залишають лише один інтервал, після чого автоматично формують нечіткі терми, які об'єднують у кластери, що задають як правила спеціального виду, для кожного кластера будують часткову лінійну регресійну модель, коефіцієнти якої визначають із системи рівнянь, автоматично у неітеративному режимі задають за визначеними правилами структуру і параметри чотиришарової нейронечіткої мережі: вагові й активаційні функції, а також значення вагових коефіцієнтів.

Текст

Спосіб побудови нейронечіткої мережі для апроксимації кількісних залежностей при діагностуванні виробів, який полягає у тому, що задають навчальну вибірку діагностованих виробів, які характеризують набором значень ознак, виділяють нечіткі терми за параметрами, на основі вибірки будують структуру та визначають параметри нейронечіткої мережі; який відрізняється тим, що здійснюють дискретизацію вихідної ознаки, авто 3 ції навчання; невизначеність у виборі кількості нечітких термів та початкових значень вагових коефіцієнтів нейронів мережі, необхідність залучення у процес побудови нейронечіткої мережі людини, що має визначати кількість нечітких термів; низькі апроксимаційні та узагальнюючі властивості мережі внаслідок занесення усієї навчальної вибірки до її структури та параметрів. В основу корисної моделі поставлено завдання підвищення рівня автоматизації та швидкості побудови і роботи нейронечіткої мережі для діагностування виробів. Поставлене завдання вирішується тим, що у способі побудови нейронечіткої мережі для апроксимації кількісних залежностей при діагностуванні виробів задають навчальну вибірку діагностованих виробів, які характеризують набором значень ознак, виділяють нечіткі терми за параметрами, на основі вибірки будують структуру та визначають параметри нейронечіткої мережі. Причому здійснюють дискретизацію вихідної ознаки, автоматично для кожної вхідної ознаки діагностованих виробів визначають кількість інтервалів розбиття діапазону її значень, за допомогою ЕОМ дані навчальної вибірки перетворюють у параметри інтервалів, встановлюють інтервали різних ознак, що дублюються, які групують та з кожної групи інтервалів залишають лише один інтервал, після чого автоматично формують нечіткі терми, які об'єднують у кластери, що задають як правила спеціального виду, для кожного кластера будують часткову лінійну регресійну модель, коефіцієнти якої визначають із системи рівнянь, автоматично у неітеративному режимі задають за визначеними правилами структуру і параметри чотиришарової нейронечіткої мережі: вагові й активаційні функції, а також значення вагових коефіцієнтів. У порівнянні з прототипом відмінними ознаками є: зменшення кількості шарів обчислювальних вузлів, що призводить до підвищення швидкості роботи мережі, здійснення побудови і навчання нейронечіткої мережі пропонованим способом в неітеративному режимі із автоматичним визначенням параметрів структурних блоків нейронечіткої мережі: вагових коефіцієнтів, вагових та активаційних функцій обчислювальних вузлів, виключення необхідності розрахунку похідних цільової функції по вагам мережі, властивого градієнтним методам навчання на основі техніки зворотного поширення помилки, автоматичне формування нечітких термів пропонованим способом для параметрів діагностованих виробів та встановлення кількості термів без залучення людини, автоматичне визначення та видалення зайвих термів, внаслідок чого забезпечується прискорення обчислень, спрощення аналізу мережі та економія пам'яті ЕОМ для здійснення обчислень; уникнення проблеми вибору початкових значень ваг для навчання. Технічним результатом корисної моделі є: збільшення рівня автоматизації процесу побудови та навчання нейронечіткої мережі, що виявляється у виключенні безпосередньої участі людини при формуванні структури та визначенні параметрів нейронечіткої мережі, які здійснюються автомати 59633 4 чно ЕОМ; підвищення швидкості побудови та навчання нейронечіткої мережі внаслідок неітеративного характеру її побудови. У технічному рішенні, що заявляється, нові ознаки при взаємодії з відомими дають новий технічний результат, що дозволяє вирішити поставлене завдання. Таким чином, у порівнянні з прототипом запропоноване технічне рішення містить вищевказані істотні ознаки і, отже, відповідає вимозі „новизна". Ознаки, що відрізняють технічне рішення, яке заявляється, від прототипу, не виявлені в інших технічних рішеннях при вивченні цієї галузі техніки і, отже, забезпечують рішенню, що заявляється, „винахідницький рівень". Побудову та навчання нейронечіткої мережі здійснюють у такий спосіб. Спочатку випадковим чином із доступної множини виробів обирають S виробів для випробувань, після чого для кожного s s-го відібраного виробу х , s=1, 2, ..., S, вимірюють s значення N ознак (параметрів) x j, j=1, 2, ..., N, які характеризують його стан або властивості стосовно вирішуваного завдання діагностики, а також проводять випробування, у результаті яких виміs рюють значення вихідного параметра у . На основі отриманих експериментальних спостережень формують навчальну вибірку діагностованих виробів s s s s , де х={x }, у={y }, х ={x j}. Сформовану навчальну вибірку у вигляді відповідних масивів даних вводять до пам'яті ЕОМ. Задають припустиму погрішність у. Після чого дискретизують значення цільової змінної у. Для s s цього знаходять min(y ) та mах(y ) - відповідно, мінімальне і максимальне значення цільової змінної у. Далі упорядковують зразки вибірки діагностованих виробів у порядку неубування значень цільової змінної у та встановлюють: k=0, s=2, 1 у=min(у), у =0. s Далі, поки sS: якщо |y –уL|у, тоді встановs люють: у =k, s=s+1; у протилежному випадку s установлюють: k=k+1, у =k, s=s+1. Визначають кількість виділених класів (можливих дискретних значень цільової змінної): K=k. Для вибірки з дискретизованою цільовою змінною формують розбиття простору діагностичних ознак. Окремо для кожної j-ої ознаки, j=1, 2, ..., N, упорядковують вироби з вибірки у порядку зростання її значень. Після чого, рухаючись від виробів з меншими значеннями ознаки до виробів з більшими значеннями ознаки, визначають групи послідовно розташованих виробів з однаковим значенням номера класу. Для кожної такої k-ої групи виробів (k-гo інтервалу значень j-ої ознаки), k=1, 2, ..., kj визначають значення координат по осі j-ої ознаки для лівої границі A(j,k) і правої границі B(j,k), а також K(j,k) - номер класу виробів k-ої групи та n(j,k,p) - кількість екземплярів вибірки, що потрапили у k-ий інтервал значень j-ої ознаки і належать до p-го класу. Після чого визначають кількість інтервалів, на які розбивається діапазон значень j-ої ознаки kj. Після формування розбиття простору ознак для кожної j-ої ознаки оцінюють її індивідуальну інформативність: Ij=K/kj. 5 59633 Далі виконують видалення надлишкових інтервалів значень вхідних змінних. Для цього визначають коефіцієнт еквівалентності між k-им інтервалом значень i-ої ознаки для s-гo виробу вибірки і 6 q-им інтервалом значень j-ої ознаки для g-гo виробу вибірки, s=1, 2,..., S; g=1, 2, ..., S; і=1, 2,..., N; j=1, 2,..., N; k=1, 2,..., kj, q=1,2,..., kj, за формулою: 0,  i, k    j, q;   0, i, k   x s або x s  i, k ;  i i  s g   n x , x , k, q    g g 0, i, q  x або x  j, q;  i j   i i g  1,  i, k    j, q, i, k   x s  i, k , j, q  x  j, q,  i j  Далі визначають кількість екземплярів з однаковими номерами класів, що потрапили одночасно до k-го інтервалу значень i-ої ознаки та до q-го інтервалу значень j-ої ознаки, i=1, 2, ..., N; j =1, 2, ..., N; k = 1, 2, ..., ki; q = 1,2, ..., kj. S S g   i, k, j, q    n x s , x , k, q .  i j  s 1g 1 g s Після чого визначають Ni,k - кількість екземплярів навчальної вибірки, що потрапили до k-го інтервалу значень i-ої ознаки, і = 1,2,..., N, k=1,2,..., ki. Далі розраховують коефіцієнт взаємної еквівалентності між k-им інтервалом значень i-ої ознаки i q-им інтервалом значень j-ої ознаки, i = 1,2,..., N; j = 1,2, ..., N; k = 1, 2, ..., ki; q = 1, 2, ..., kj. i, k, j, q ei,k, j,q  . max  i,k ,  j,q   Після цього визначають коефіцієнт взаємної еквівалентності між i-ою та j-ою ознаками, i = 1, 2, ..., N; j = 1, 2, ..., N: ki k j   ei,k, j,q k 1q 1 e i, j  . max k i,k j Далі здійснюють видалення надлишкових інтервалів ознак. Для цього ранжують ознаки в порядку убування Ii, і встановлюють: i = N. Далі, поки i > 1 для j, j  i, j=1,2…, (i-1): якщо ei,j = 1, тоді видаляють хi і встановлюють: N = N-1, i = i-1; у протилежному випадку - установлюють: i = i-1. Після цього встановлюють: i = N. Далі, поки i  1, установлюють: k = ki, поки k  1, визначають с за формулою; N1 k j c    ei,k, j,q ei,k, j,q  1, j 1 q 1 якщо с  1, тоді видаляють k-ий інтервал і-ої ознаки і встановлюють: ki = ki - 1, після чого встановлюють: k = k-1. На основі тих інтервалів значень ознак, що залишилися, задають функції приналежності діагностованого виробу до нечітких термів i,k , де i –   номер ознаки, k - номер інтервалу значень j-ої ознаки. Як функції приналежності використовують трапецієподібні функції:   0, x i  0,5i, k   i, k  1;   x i  0,5i, k   i, k  1 , 0,5i, k   i, k  1  x i  i, k ;   0,5i, k   i, k  1   i,k x i    1, якщо i, k   x i  i, k ;  0,5i, k  1  i, k   x i , i, k   x i  0,5(i, k   i, k  1);   0,5i, k  1  i, k   0, якщо 0,5 i, k   A i, k  1   x i ;  Далі на основі вибірки і виділених термів формують кластери - компактні області зосередження екземплярів вибірки з однаковим номером класу шляхом задавання правил виду: (q) якщо ... та A(j,k)  xj  B(j,k) та ..., тоді K(q) = K(j,k), де K(q) - номер класу, зіставлений q-му кластеру; q - номер правила (кластера), q = 1, 2, ,.., Q; Q - кількість кластерів:     N  N 1  Q   k j   k p . . 2 j 1  p 1,  p j    Після чого усувають дубляж сформованих правил. Для цього знаходять групи однакових правил і залишають у кожній групі тільки одне правило, корегуючи відповідним чином Q. Далі для кожного кластера визначають відповідні йому діагностовані вироби, на основі значень вхідних ознак яких і недискретизованих значень 7 59633 вихідної змінної будують часткові моделі залежностей, для чого вирішують системи лінійних рівнянь   q y q x s  0  N  8 виду:  j, k   x s   j, k , s  1,2,..., S, q  1,2,..., Q. j q s j xj , j1 де  q - коефіцієнт при j-ій ознаці багатомірної j лінійної регресійної моделі для q-го кластера, який визначають шляхом розв'язку системи лінійних рівнянь, сформованих для виробів q-гo кластера. Далі синтезують нейронечітку мережу (фіг.1) з чотирьох шарів обчислювальних вузлів. Входи мережі зіставляють вхідним ознакам діагностованого виробу, сигнали з яких подають на вузли першого шару, що визначають приналежності діагностованого виробу до нечітких термів (інтервалів значень ознак). Другий шар мережі формують з 2Q обчислювальних вузлів: перші Q вузлів визначають приналежності діагностованого виробу до кластерів у просторі ознак, другі Q вузлів реалізуs ють часткові моделі yq(x ). Третій шар мережі фо рмують з Q вузлів для селекції часткових моделей для кластерів. На четвертий (вихідний) шар мережі поміщають один нейрон, що виконує об'єднання часткових моделей і дефаззіфікацію вихідної змінної. При цьому вагові функції вузлів мережі  ,i , де  - номер шару, i - номер вузла в шарі  , за(  ,i) (  ,i) дають на основі входів вузлів х = {хj }, де (  ,i) xj - значення сигналу на j-му вході i-го вузла в (  ,i) шарі  , та зіставлених їм значень ваг w =  ,i)  ,i) ( ( {wj }, де wj - значення сигналу на j-му вході і-го вузла в шарі  , за формулами: (2,i)  w (2,i), x(2,i)   min w j(2,i), x j(2,i) , i  1,2,...,Q;        j  (2,i)  w (2,i), x(2,i)       (3,i)  w (3,i), x(3,i)       N (2,i), i  Q  1, Q  2,...,2Q;  w j(2,i)x j(2,i)  w 0 j1  w j(3,i)x j(3,i), i  1,2,...,Q; ji,2i ( 4,1)  w ( 4,1), x( 4,1)       Q ( 4,1).  w j( 4,1)x j( 4,1)  w 0 j1 Функції активації вузлів мережі задають за формулами: ( 2,i)  ( 2,i) ( 2,i)   2,i x   max  w ,x , i  1,2,...,Q; j    j Після чого вагові коефіцієнти входів вузлів мережі набудовують у неітеративному режимі на основі правила:  2,i x   x, i  Q  1, Q  2,...,2Q;  3,i x   x, i  1,2,...,Q;  4,1 x  x. 1   2, i  1,2,...,Q, j  1,2,...,N; ,   q  ,   2, i  Q  q, q  1,2,...,Q, j  0,1,...,N; ,i   j 1,   3, i  1,2,...,Q, j  1,2,...,2Q; w  j  0,   4, i  1 j  0; ,    j ,   4, i  1 j  1 2,...,Q , ,  де  j - ваговий коефіцієнт, що визначає значимість j-ої часткової моделі (у найпростішому випадку задають:  j = 1). Для вузлів першого шару замість ваг використовують параметри функцій приналежності. Після побудови нейронечіткої мережі на її основі здійснюють діагностування виробів. Для цього s вимірюють значення діагностичних ознак {х j} для s діагностованого виробу x і подають їх на відповідні входи мережі (значення j-ої ознаки подають на jий вхід), після чого роблять пошаровий розрахунок значень виходів вузлів мережі за правилом: 9 59633   x   1,i   , j , j w , j, x , j  , x 0,i  x s,   j i      1,2,...3, i  1,2,...,N  1, j  1,2,.., N,  ,   0;    t ,   1;     2Q,   2;  Q,   3;   1,   4,  де Nt - сукупна кількість скорочених термів для всіх ознак. При цьому замість функцій активації і дискримінантних функцій вузлів першого шару використовують функції приналежності до відповідних нечітких термів. У результаті одержують розрахункове значенs* ня вихідної ознаки y на виході вузла останнього   шару: y s *   4,1  4,1 ... x s ... .           Технічним результатом внаслідок використання пропонованого способу є: Комп’ютерна верстка М. Ломалова 10 - збільшення рівня автоматизації процесу побудови та навчання нейронечіткої мережі, що виявляється у виключенні безпосередньої участі людини при формуванні структури та визначенні параметрів нейронечіткої мережі, які здійснюються автоматично ЕОМ; - підвищення швидкості побудови нейронечіткої мережі внаслідок неітеративного характеру її побудови; - підвищення швидкості роботи нейронечіткої мережі при діагностуванні виробів на основі нейронечіткої мережі, побудованої на основі пропонованого способу внаслідок зменшення кількості шарів обчислювальних вузлів та видалення нечітких термів ознак, що дублюються. Література 1. Круглов В.В. Нечеткая логики и искусственные нейронные сети: учеб. пособие / В.В.Круглов, М.И.Дли, Р.Ю. Голунов. - М: Издательство Физикоматематической литературы, 2001. - 224с. Підписне Тираж 24 прим. Міністерство освіти і науки України Державний департамент інтелектуальної власності, вул. Урицького, 45, м. Київ, МСП, 03680, Україна ДП “Український інститут промислової власності”, вул. Глазунова, 1, м. Київ – 42, 01601

Дивитися

Додаткова інформація

Назва патенту англійською

Neurofuzzy network building method for approximation of quantitative dependences at product diagnosis

Автори англійською

Subbotin Serhii Oleksandrovych

Назва патенту російською

Способ построения нейронечеткой сети для аппроксимации количественных зависимостей при диагностировании изделий

Автори російською

Субботин Сергей Александрович

МПК / Мітки

МПК: G06N 7/00, G06N 3/00

Мітки: залежностей, побудови, спосіб, мережі, виробів, апроксимації, нейронечіткої, кількісних, діагностуванні

Код посилання

<a href="https://ua.patents.su/5-59633-sposib-pobudovi-nejjronechitko-merezhi-dlya-aproksimaci-kilkisnikh-zalezhnostejj-pri-diagnostuvanni-virobiv.html" target="_blank" rel="follow" title="База патентів України">Спосіб побудови нейронечіткої мережі для апроксимації кількісних залежностей при діагностуванні виробів</a>

Подібні патенти