Є ще 2 сторінки.

Дивитися все сторінки або завантажити PDF файл.

Формула / Реферат

Пристрій N-направленої асоціативної пам'яті, що складається з двох сенсорних шарів елементів, нейрони яких зв'язані між собою парами зважених двонаправлених зв'язків з відповідними ваговими коефіцієнтами, який відрізняється тим, що введені додаткові (N-1) сенсорних шарів нейронів, що з'єднані з першим шаром сенсорних елементів парами двонаправлених зважених зв'язків з відповідними ваговими коефіцієнтами.

Текст

Реферат: Пристрій N-направленої асоціативної пам'яті належить до вимірювальної техніки і може бути використаний при побудові систем керування або діагностики такого складного технічного об'єкта як дизель-поїзд з тяговими асинхронними електроприводами. Пристрій має можливість зберігання та відновлення з пам'яті множинних асоціацій завдяки тому, що в структуру мережі було введено додаткові вихідні шари нейронів. Технічним результатом є здатність відновлювати одному вхідному вектору N вихідних асоціативних зображень. UA 108949 C2 (12) UA 108949 C2 UA 108949 C2 5 10 15 20 25 30 35 40 45 50 55 Винахід належить до обчислювальної техніки, зокрема до області побудови автоматизованих систем керування та діагностики складних технічних об'єктів. Винахід може бути використаний при побудові систем керування або діагностики такого складного технічного об'єкта як дизель-поїзд з тяговими асинхронними електроприводами. Відомий пристрій гетероасоціативної пам'яті складається з двох сенсорних шарів нейронів та однонаправлених зв'язками між ними. Якщо в мережі число вхідних нейронів більше числа вихідних, то мережа може використовуватись як гетероасоціативна пам'ять, а якщо в мережі число вхідних нейронів рівне числу вихідних, то мережа використовується як автоасоціативна пам'ять [1]. Недоліком відомого пристрою є те, що він не передбачає двонаправленого відновлення асоціативних зображень зі своєї пам'яті. Відомий пристрій двонаправленої асоціативної пам'яті, що складається з двох сенсорних шарів нейронів та відрізняється тим, що в нього уведені два керуючі нейрони, зв'язані вихідними зв'язками з керуючими нейронами відповідних модулів та вхідними зв'язками з усіма нейронами в проміжному шарі, елементи якого зв'язані парами двонаправлених зважених зв'язків з відповідними їм елементами розпізнавальних шарів двох однотипних паралельно працюючих модулів, кожний з яких являє собою дискретну нейронну мережу адаптивної резонансної теорії, що містить у собі шари інтерфейсних елементів, нейрони яких пов'язані з відповідними їм елементами сенсорних шарів парами бінарних двонаправлених зв'язків, шари розпізнавальних елементів, нейрони яких пов'язані з кожним з елементів у відповідних їм інтерфейсних шарах парами двонаправлених зважених зв'язків з безперервними ваговими коефіцієнтами, вирішуючи нейрони, які зв'язані збудливими вхідними зв'язками з усіма елементами сенсорних шарів, гальмуючими вхідними зв'язками з усіма елементами інтерфейсних шарів та збудливими вихідними зв'язками з усіма елементами розпізнавальних шарів й керуючі нейрони модулів, які зв'язані збудливими вхідними зв'язками з усіма елементами сенсорних шарів, збудливими вихідними зв'язками з усіма елементами інтерфейсних шарів та гальмуючими вхідними зв'язками з усіма елементами розпізнавальних шарів, а також зв'язані вхідними зв'язками з відповідними керуючими нейронами мережі [2]. При порівнянні з першим аналогом даний пристрій здатен здійснювати двонаправлене відновлення асоціативних зображень зі своєї пам'яті. Однак недоліком розглянутого пристрою двонаправленої асоціативної пам'яті є складність його апаратної реалізації. Найбільш близьким до заявленого пристрою є пристрій нейронної мережі, що одержала назву двонаправленої асоціативної пам'яті й складається з двох сенсорних шарів елементів, нейрони яких зв'язані між собою парами зважених двонаправлених зв'язків з відповідними ваговими коефіцієнтами [3]. При порівнянні з відомими аналогами пристрій-прототип (двонаправлена асоціативна пам'ять) має спрощену структурну реалізацію й здатен здійснювати двонаправлене відновлення асоціативних зображень (векторів) зі своєї пам'яті. Однак у розглянутого прототипу для кожного вхідного зображення в пам'яті зберігається лише одне асоціативне йому вихідне зображення, тобто відсутня можливість зберігання та відновлення з пам'яті пристрою N асоціативних вхідному вектору зображень. Таким чином, недоліком прототипу є те, що він не в змозі для кожного вхідного зображення зберігати та відновлювати зі своєї пам'яті N асоціативних зображень, які є асоціативними вхідному вектору. Задачею винаходу - розробка пристрою N-направленої асоціативної пам'яті, що має можливістю зберігання та відновлення з пам'яті пристрою N асоціативних вхідному вектору зображень. Задача вирішується завдяки тому, що пристрій двонаправленої асоціативної пам'яті, який складається з двох сенсорних шарів елементів, нейрони яких зв'язані між собою парами зважених двонаправлених зв'язків з відповідними ваговими коефіцієнтами, перебудовується шляхом введення в його структуру додаткових (N-1) сенсорних шарів нейронів, що пов'язані з першим шаром сенсорних елементів парами двонаправлених зважених зв'язків з відповідними ваговими коефіцієнтами. У результаті додавання в структуру нейронної мережі перерахованих вище сенсорних шарів нейронів досягається можливість зберігання та відновлення з пам'яті пристрою множинних асоціацій. Це стає можливим завдяки тому, що вхідний сенсорний шар нейронів пов'язаний одразу з N шарами елементів, що дозволяє одному вхідному зображенню асоціювати N вихідних. 1 UA 108949 C2 Винахід ілюструється рисунком (фіг. 1), на якому наведена схема пристрою N-направленої асоціативної пам'яті, що розроблена на основі нейронних мереж двонаправленої асоціативної пам'яті. Винахід складається з вхідного сенсорного шару нейронів Xi i  1,...,n  та N вихідних 5 1 Yq1 q1  1,...,g1  пов'язані , 2 Yq 2 q 2  1,...,g 2  парами 10 15 20 21 , Wiq 2 та N1 N Yq q N  1,...,g N  N , елементи яких 11 з ваговими коефіцієнтами Wiq 1 , 22 WN 11 WN12 i  1,...,n; q N 1  1,...,g N1  , Wq 2 i i  1,...,n; q 2  1,...,g 2  , …, iq N1 , iq N1i двонаправлених 12 Wq1i i  1,...,n; q1  1,...,g1  W N1 N Yq 1q N 1  1,...,g N 1  , …, WN2 i  1,...,n; q  1,...,g зважених зв'язків  N N iq N , q Ni та відповідними їм елементами вихідних шарів нейронів, де верхні індекси матриць вагових коефіцієнтів - це номер вихідного шару, з яким з'єднує матриця та номер самої матриці відповідно. Перший верхній індекс показує, що нейрони вхідного шару з'єднані з нейронами відповідного вихідного шару, другий: 1, коли матриця зв'язків передає сигнали нейронів Х-шару нейронам відповідного вихідного шару, й 2, навпаки, коли матриця зв'язків передає сигнали вихідного шару нейронам Х-шару. Перші нижні індекси вказують на нейрони, що видають сигнали, а другі - на нейрони, що приймають сигнали. Розроблена N-направлена асоціативна пам'ять функціонує відповідно до двох алгоритмів: навчання й розпізнавання. Алгоритм навчання являє собою процес визначення навчального набору зображень й побудови матриць вагових коефіцієнтів між вхідним та вихідними шарами нейронів. Навчання проводиться з використанням навчального набору зображень. Процес навчання реалізовується в формі обчислень, це означає, що спочатку обчислюється N вагових матриць за формулою: L 1 Wiqkk  S t p pk i j p 1 , i  1, n , q k  1, g k , (1) p 1k k де Wiq k - елемент матриці зв'язків від шару X -нейронів до Yq k -шару ( k  1, N ) нейронів, S i , t pk j 25 - пари асоціативних зображень, p - номер набору асоціативних зображень, L - загальна кількість наборів. Для біполярних вхідних зображень функції активації f p Uвх.р  для елементів X - і Y -шарів задаються виразом: 1, якщо U вх.р t    p ,   U вих.р t  1  U вих.р t , якщо U вх.р t    p ,  0, якщо U вх.р t    p ,  (2) 30 де  p - поріг p -го елемента. Розглянемо приклад навчання мережі з біполярними нейронами для запам'ятовування двох 1 2 3 1 2 3 наборів асоціативних зображень ( S1, S1, S1 , S1 ) та ( S2 , S2 , S2 , S2 ), де S1 , S2 - вхідні зображення, 2 3 S1, S1 , S1 та S1 , S2 , S3 - асоціативні зображення для першого та другого вхідних зображень 1 2 2 2 відповідно, що представлені на фіг. 2, та описуються двійковими векторами: S1  (1,1,1,1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,1,1,1,1) , 35 S1  (1,1,1,1,1,  1,  1,1,  1,  1,  1,  1,1,  1,  1,  1,  1,  1,1,  1,  1,  1,  1,1,1,  1) , 1 2 S1  (1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,1,1,1,  1,1,  1,1,1,  1,1,  1,1) , 3 S1  (1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,1,1,1,1) S2  (1,1,1,1,1,  1,1,  1,  1,  1,1,1,1,1,1,  1,  1,  1,1,  1,1,1,1,1,1) , S1  (1,1,1,1,1,1,  1,  1,  1,1,1,  1,  1,  1,1,1,  1,  1,  1,1,1,1,1,1,1) , 2 40 S2  (1,  1,  1,  1,1,  1,1,  1,1,  1,  1,  1,1,  1,  1,  1,1,  1,  1,  1,1) , 2 S3  (1,  1,  1,  1,  1,1,  1,  1,  1,  1,1,1,1,1,1,  1,  1,  1,  1,1,  1,  1,  1,  1,1) . 2 2 та UA 108949 C2 При цьому матриці вагових коефіцієнтів, що розраховуються за допомогою формули (1), представлені в таблицях 1-3. Таблиця 1 1 Матриця вагових коефіцієнтів Wiq 1 між вхідним та першим вихідним шаром нейронів Nнаправленої асоціативної пам'яті 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 0 0 0 0 0 -2 0 0 0 -2 -2 0 2 0 -2 -2 0 2 0 -2 -2 0 0 0 0 0 -2 0 0 0 -2 -2 0 2 0 -2 -2 0 2 0 -2 -2 0 0 0 0 0 -2 0 0 0 -2 -2 0 2 0 -2 -2 0 2 0 -2 -2 -2 -2 -2 -2 -2 0 2 0 2 0 0 2 0 2 0 0 2 0 2 0 0 0 0 0 0 0 -2 0 0 0 -2 -2 0 2 0 -2 -2 0 2 0 -2 -2 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 0 0 0 0 0 2 0 -2 0 2 2 0 -2 0 2 2 0 -2 0 2 2 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 0 0 0 0 0 2 0 -2 0 2 2 0 -2 0 2 2 0 -2 0 2 2 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 0 0 0 0 0 -2 0 0 0 -2 -2 0 2 0 -2 -2 0 2 0 -2 -2 -2 -2 -2 -2 -2 0 2 0 2 0 0 2 0 2 0 0 2 0 2 0 0 0 0 0 0 0 -2 0 0 0 -2 -2 0 2 0 -2 -2 0 2 0 -2 -2 0 0 0 0 0 2 0 -2 0 2 2 0 -2 0 2 2 0 -2 0 2 2 -2 -2 -2 -2 -2 0 2 0 2 0 0 2 0 2 0 0 2 0 2 0 0 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 2 2 2 2 2 0 -2 0 -2 0 0 -2 0 -2 0 0 -2 0 -2 0 0 5 0 2 0 0 0 2 0 0 0 2 0 0 0 2 0 0 0 2 0 0 -2 0 -2 -2 -2 0 -2 -2 -2 0 -2 -2 0 -2 0 0 -2 0 -2 -2 0 2 0 0 2 0 2 2 0 2 0 0 2 0 2 2 0 2 0 0 -2 0 -2 -2 0 -2 0 0 -2 0 -2 -2 2 0 2 2 0 -2 0 0 0 2 0 0 0 2 0 0 0 2 0 0 0 2 0 0 0 2 0 0 Перевірка працездатності роботи N-направленої асоціативної пам'яті. При поданні на вхід 1 вектору S1  (1,1,1,1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,1,1,1,1) , асоційованого вектора S1 отримаємо: 1 1 S1Wiq1  (1,1,1,1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,1,1,1,1)  Wiq1  (30, 30, 30, 30, 30,  14,  28, 4,  28,  14,  14,  28,14,  28,  14,  14,  28,14,  28,  14,  14,  14, 30,  14,  14). 3 UA 108949 C2 Таблиця 2 Матриця вагових коефіцієнтів 2 2 2 2 2 0 0 0 -2 0 2 0 2 0 2 0 2 0 0 0 2 2 2 2 2 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 2 2 2 2 2 0 0 0 -2 0 2 0 2 0 2 0 2 0 0 0 2 2 2 2 2 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 1 Wiq 2 0 0 0 0 0 -2 2 -2 0 -2 0 2 0 2 0 -2 0 -2 2 -2 0 0 0 0 0 між вхідним та другим вихідним шаром нейронів N-направленої асоціативної пам'яті 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 0 0 0 0 0 -2 2 -2 0 -2 0 2 0 2 0 -2 0 -2 2 -2 0 0 0 0 0 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 2 2 2 2 2 0 0 0 -2 0 2 0 2 0 2 0 2 0 0 0 2 2 2 2 2 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 0 0 0 0 0 -2 2 -2 0 -2 0 2 0 2 0 -2 0 -2 2 -2 0 0 0 0 0 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 0 0 0 0 0 -2 2 -2 0 -2 0 2 0 2 0 -2 0 -2 2 -2 0 0 0 0 0 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 2 2 2 2 2 0 0 0 -2 0 2 0 2 0 2 0 2 0 0 0 2 2 2 2 2 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 0 0 0 0 0 0 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 2 2 2 2 2 0 0 0 -2 0 2 0 2 0 2 0 2 0 0 0 2 2 2 2 2 Таблиця 3 Матриця вагових коефіцієнтів 2 2 2 2 2 0 0 0 -2 0 2 0 2 0 2 0 -2 0 0 0 2 2 2 2 2 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 0 0 0 0 0 2 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 0 0 0 0 0 2 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 Використовуючи 5 S1 1 2 2 2 2 2 0 0 -2 0 2 0 2 0 2 0 -2 0 0 0 2 2 2 2 2 2 1 Wiq 3 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 між вхідним та третім вихідним шаром нейронів N-направленої асоціативної пам'яті 0 0 0 0 0 2 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 функцію -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 2 2 2 2 2 0 0 -2 0 2 0 2 0 2 0 -2 0 0 0 2 2 2 2 2 2 2 2 2 2 2 0 0 -2 0 2 0 2 0 2 0 -2 0 0 0 2 2 2 2 2 2 0 0 0 0 0 -2 2 -2 0 -2 0 2 0 2 0 -2 0 -2 2 -2 0 0 0 0 0 активації (2) 2 2 2 2 2 0 0 -2 0 2 0 2 0 2 0 -2 0 0 0 2 2 2 2 2 2 при 0 0 0 0 0 -2 2 -2 0 -2 0 2 0 2 0 -2 0 -2 2 -2 0 0 0 0 0 2 2 2 2 2 0 0 -2 0 2 0 2 0 2 0 -2 0 0 0 2 2 2 2 2 2 0 0 0 0 0 2 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 нульовому 0 0 0 0 0 2 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 -2 -2 -2 -2 -2 0 0 0 2 0 -2 0 -2 0 -2 0 2 0 0 0 -2 -2 -2 -2 -2 порозі, 2 2 2 2 2 0 0 -2 0 2 0 2 0 2 0 -2 0 0 0 2 2 2 2 2 2 0 0 0 0 0 2 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 0 0 0 0 0 2 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 0 0 0 0 0 2 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 визначаємо 0 0 0 0 0 2 -2 2 0 2 0 -2 0 -2 0 2 0 2 -2 2 0 0 0 0 0 2 2 2 2 2 0 0 -2 0 2 0 2 0 2 0 -2 0 0 0 2 2 2 2 2 2 вектор  (1,1,1,1,1,  1,  1,1,  1,  1,  1,  1,1,  1,  1,  1,  1,  1,1,  1,  1,  1,  1,1,1,  1) . При поданні на вхід вектора S1  (1,1,1,1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,1,1,1,1) , асоційованого 1 вектору S 2 отримаємо: 4 UA 108949 C2 21 21 S1Wiq 2  (1,1,1,1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,1,1,1,1)  Wiq 2   (30,  30,18,  30, 30,18,  20,18,  20,18,18,  30, 30,  30,18,18,  20,18,  20,18, 30,  30,18  30, 30). Використовуючи функцію активації (2) при нульовому порозі, визначаємо вектор S1  (1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,  1,1) . 2 При поданні на вхід вектора S1  (1,1,1,1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,1,1,1,1) , асоційованого 5 1 вектора S 3 отримаємо: 31 31 S1Wiq  (1,1,1,1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,1,1,1,1)  Wiq  3 3  (30,  30, 20,  30, 20,16,  30, 20,  30,16,16,  20,16,  20,16, 20,  30, 20,  30, 30, 20, 20, 20, 20,16). Використовуючи функцію активації (2) при нульовому порозі, визначаємо вектор S1  (1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,  1,1,  1,1,1,1,1,1,1) . 2 10 В алгоритмах функціонування пристрою N-направленої асоціативної пам'яті прийняті наступні позначення: r - максимальне число наборів асоціативних зображень; n - число бінарних компонентів у вхідному векторі; k g k - число бінарних компонентів у k -му вихідному векторі Yq k -шару ( k  1, N ) нейронів; L - число наборів асоціативних зображень, що запам'ятовуються; 15   k2 , Wq k1i i  1, n; k  1, N; q k  1, g k - ваги зв'язків від елементів вхідного шару до елементів k го вихідного шару; k Wiq1 k U вх.Х і - вхідний сигнал і -го елемента вхідного шару нейронної мережі ( і  1, ...,n ); Uвих.Х і - вихідний сигнал і -го елемента вхідного шару нейронної мережі ( і  1, ...,n ); Uвх.Yk qk 20 Uвих.Y k qk - вхідний сигнал q -гo елемента k -го вихідного шару нейронної мережі ( q k  1, g k ); - вихідні сигнал q -гo елемента k -го вихідного шару нейронної мережі ( q k  1, g k ); N N N N N N (S1, S1, ...,S1 1, S1 ) , (S2 , S1 , ...,S2 1, S2 ) , …, (Sr , S1 , ...,Sr 1, Sr ) - набори асоціативних зображень, які 1 2 r запам'ятовуються модулями N-направленої асоціативної пам'яті; S  (S1, ....,Sn ) - бінарний вхідний вектор  -гo набору асоціативних зображень,   1, ...,n . 25 Алгоритм роботи N-направленої асоціативної пам'яті в режимі визначення асоціативнихзображень, передбачає виконання наступних кроків: Крок 1. Задається початковий час: t=0. Ініціюються нульовими вхідними сигналами всі нейрони мережі:   Uвх.Х і 0  0 ; Uвих.Хі 0  fi Uвх.Хі  0 , i  1, n ; U вх.Y1 0   0 U 0  0 U вх.Y N1 0  0 Uвх.Y N 0  0 вх.Y 2 ; q 30 , k h ; l ; U вих.Y1 0  f q  U вх.Y1   0 U вих.Y 2 0  f q  U вх.Y1   0     q q  k q    ; ; …………………………………….   U вих.Y N1 0  f h U вх.Y N1  0 h h ;   U вих.Y N 0  f l U вх.Y N 3  0 q  1, g h  1, m l l , ; ; l  1, d ; k  1, p . Крок 2. На входи нейронів X -шару подається зображення S  (S1, ....,Sn ) . Для даного 35 вхідного зображення S  (S1, ....,Sn ) виконуються кроки 3-8, коли на кожному з k шарів Y нейронів отримується одне зображення, асоціативне вхідному, де k  1, N .   0  k  W1 W1T i  1, n; q k  1, g k Крок 3. Ініціюються ваги зв'язків iq k , iq k . Задається час: t  t 0 . Крок 4. Задаються вхідні сигнали нейронів X -шарів мережі Uвх.Х і 0  Si , i  1, n . 40 0  k  Задається час t  t1 та обчислюються вихідні сигнали X -елементів: 5 UA 108949 C2      U вих.Х і t10  k   f i U вх.Х і t 0  k  0  , i  1, n . Крок 5. Доки не встановляться вихідні сигнали всіх X - та 6-8. Крок 6. Адаптується активність елементів 5 k Yq k k Yq k k Yq k -нейронів, виконуються кроки -шару. Обчислюються вхідні та вихідні сигнали -елементів:   W  U вх.Y k t10  k   qk  n k1 U iq k вих.Х і i 1  t    0 k 1   , q k  1, g k .    Uвих.Y k t 0  k   f q k  Uвх.Yk t10  k   2 q q k k   , q k  1, g k . Yk 10 Вихідні сигнали q k -нейронів посилаються на входи елементів X -шару. Крок 7. Адаптується активність елементів X -шару. Обчислюються вхідні та вихідні сигнали X -елементів.   W gk U вх.Х і t 0  k   2 q k 1 k2 U k q k i вих.Yq k t    0k 2 , i  1, n . Вихідні сигнали X -нейронів посилаються на входи елементів k Yq k вхідні та вихідні сигнали  qk  n i 1 k1 U iq k вих.Х і  k -шару та обчислюються -елементів:  W  U вх.Y k t 30  k   k Yq t    0 k 3   , q k  1, g k .    Uвих.Y k t 0  k   f q k  Uвх.Yk t 30  k   4 q q k k   , q k  1, g k . 15 Крок 8. Перевіряється тест на збіжність. Порівнюються вихідні сигнали   U вих.Х і t 30  k  Uвих.Y k qk 20   t 0  k  4  та   U вих.Х і t10  k   i  1, n , відповідно, а також вих.Х і  3     вих.Х 1 qk , i  1, n ; t    q  1, g 1 k 4 , k k  Uвих.Y k t 0 k  2 qk  та , то перехід до кроку 6 алгоритму, якщо 1T Wiq k 35 -нейронів виконана хоч одна рівність U t 1 k   U t 1 k  qk 30 k q k  1, g k , відповідно, які отримані на поточній на попередній ітераціях. Якщо не U вих.Y k t 1 k   U вих.Y k 2 25 k Yq X -нейронів k 1  N , то блокуються ваг зв'язку i  1, n; qk  1, gk  , k  k  1 та перехід до кроку 3, в іншому випадку – до кроку 9. 1 Wiq k , Крок 9. Останов. В результаті поєднання в структурі N-направленої асоціативної пам'яті сенсорних шарів нейронів досягається можливість відновлення множинних асоціацій по одному вхідному вектору. Таким чином, розроблений пристрій N-направленої асоціативної пам'яті здатен відновлювати по вхідному вектору N асоціативних йому зображень. Джерела інформації: 1. Дмитриенко В.Д., Корсунов Н.И. Основы теории нейронных сетей. -Белгород: БИИММАП, 2001. - 159 с. 2. Пат. 18624 України МПК G06G 7/00. Пристрій двонаправленої асоціативної пам'яті / Дмитрієнко В.Д., Заковоротний О.Ю.; замовник та власник патенту Національний технічний університет "Харківський політехнічний інститут". - № u200605460, заявлено 19.05.2006; опубліковано 15.11.2006, Бюл. № 11. 3. Осовский С. Нейронные сети для обработки информации. - М.: Финансы и статистика, 2002. - 344 с. 6 UA 108949 C2 ФОРМУЛА ВИНАХОДУ 5 Пристрій N-направленої асоціативної пам'яті, що складається з двох сенсорних шарів елементів, нейрони яких зв'язані між собою парами зважених двонаправлених зв'язків з відповідними ваговими коефіцієнтами, який відрізняється тим, що введені додаткові (N-1) сенсорних шарів нейронів, що з'єднані з першим шаром сенсорних елементів парами двонаправлених зважених зв'язків з відповідними ваговими коефіцієнтами. 7 UA 108949 C2 Комп’ютерна верстка Л. Бурлак Державна служба інтелектуальної власності України, вул. Василя Липківського, 45, м. Київ, МСП, 03680, Україна ДП “Український інститут інтелектуальної власності”, вул. Глазунова, 1, м. Київ – 42, 01601 8

Дивитися

Додаткова інформація

МПК / Мітки

МПК: G06G 7/60, G06N 3/04, G06F 15/18

Мітки: пам'яті, n-направленої, пристрій, асоціативної

Код посилання

<a href="https://ua.patents.su/10-108949-pristrijj-n-napravleno-asociativno-pamyati.html" target="_blank" rel="follow" title="База патентів України">Пристрій n-направленої асоціативної пам’яті</a>

Подібні патенти