курсач_1

37
Московский государственный технический университет «МАМИ» Кафедра «Информационные системы и дистанционные технологии» Курсовая работа Тема: Основные понятия и определения нечетких нейронных сетей Выполнил: студент группы 7- АИС-9 Завьялов Г.О. Руководитель:

Upload: tanya-zavyalova

Post on 22-Sep-2014

190 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: курсач_1

Московский государственный технический университет

«МАМИ»

Кафедра «Информационные системы и дистанционные технологии»

Курсовая работа

Тема: Основные понятия и определения нечетких нейронных сетей

Выполнил:

студент группы 7-АИС-9

Завьялов Г.О.

Руководитель:

к.т.н. Старостин А.С.

Москва 2011

Page 2: курсач_1

Содержание

Введение……………………………………………………………………………...3

1. Теоретическое исследование предметной области……………………………..4

1.1. Искусственные нейронные сети…………………………………………4

1.2. Нечёткие множества и операции над ними…………………………….5

1.3. Нечёткие правила вывода………………………………………………..9

Выводы…………..…………………………………………………………...10

2. Системы нечёткого вывода……………………………………………………...11

2.1. Фаззификатор и дефаззификатор……………………………………...11

2.2. Система нечёткого вывода Мамдани-Заде…………………................14

2.3. Система нечёткого вывода Такаги-Сугено-Канга….............................17

Выводы…………..…………………………………………………………...19

3. Примеры нечётких нейронных сетей…………………………………………..20

3.1. Сеть Такаги-Сугено-Канга……………………………………………..20

3.2. Сеть Ванга-Менделя…………………………………………………….23

Выводы…………..…………………………………………………………...25

Заключение………………………………………………………………………….26

Список литературы…………………………………………………………………26

2

Page 3: курсач_1

Введение

Целью данной курсовой работы является изучение основ нечёткой

логики, выбор критерия функционирования нечётких нейронных сетей, а так же

описание структуры нечётких нейронных сетей.

Основные тенденции развития кибернетики в наши дни можно выразить

двумя словами: биологизация и гибридизация. Под биологизацией чаше всего

понимается построение и исследование моделей поведения сложных объектов

и способов управления ими на основе имитации механизмов, реализованных

природой в живых существах.

Гибридизация в свою очередь, состоит в совместном применении

различных методов и/или моделей, для обработки информации об одном и том

же объекте. Гибридный подход основан на том, что любая сколь угодно

сложная искусственная модель реального объекта всегда будет проще

оригинала и только изучение объекта со стороны разных аспектов может

приблизить к оптимальному решению.

Нечёткие нейронные сети являются ярким примеров гибридизации, ведь

они строятся не только на теории нейронных сетей, но и на теории нечёткой

логики и нечётких множеств. Такой «симбиоз» позволяет считать нечёткие

нейронные сети наиболее приближенными к биологическим нейронным сетям.

Информационные системы на основе нечётких нейронных сетей

становятся все более совершенными. Уже и сегодня имеются разработки,

позволяющие распознавать текст, графику и даже предсказывать курс акций.

3

Page 4: курсач_1

1. Теоретическое исследование предметной области

Серьезное ознакомление с нечёткими нейронными сетями требует

глубокого знания теории нечётких множеств, систем нечёткого вывода и

нейронных сетей. Но, как минимум, необходимо хотя бы базовое знание этих

вопросов.

1.1. Искусственные нейронные сети

Искусственные нейронные сети - это математические модели, а также их

программные или аппаратные реализации, построенные по принципу

организации и функционирования биологических нейронных сетей - сетей

нервных клеток живого организма1. Понятие искусственной нейронной сети

возникло при попытке смоделировать процессы, протекающие в мозге.

Искусственная нейронная сеть представляют собой систему

соединённых и взаимодействующих между собой простых процессоров

(искусственных нейронов). Такие процессоры обычно довольно просты,

особенно в сравнении с процессорами, используемыми в персональных

компьютерах. Каждый процессор подобной сети имеет дело только с

сигналами, которые он периодически получает, и сигналами, которые он

периодически посылает другим процессорам. Будучи соединёнными в

достаточно большую сеть с управляемым взаимодействием, такие простые

процессоры вместе способны выполнять довольно сложные задачи.

На вход искусственного нейрона поступает некоторое множество

сигналов, каждый из которых является выходом другого нейрона. Каждый вход

умножается на соответствующий вес, пропорциональный синаптической силе,

и все произведения суммируются, определяя уровень активации нейрона.

Множество входных сигналов поступает на искусственный нейрон. Эти

входные сигналы, в совокупности обозначаемые вектором x, соответствуют

1 http://ru.wikipedia.org/wiki/Искусственная_нейронная_сеть

4

Page 5: курсач_1

сигналам, приходящим в синапсы биологического нейрона. Каждый сигнал

умножается на соответствующий вес и поступает на суммирующий блок.

Множество весов в совокупности обозначается вектором w. Суммирующий

блок, соответствующий телу биологического элемента, складывает взвешенные

входы алгебраически, создавая выход y. Далее y поступает на вход функции

активации, определяя окончательный сигал возбуждения или торможения

нейрона на выходе. Этот сигнал поступает на синапсы следующих нейронов и

так далее.

С точки зрения кибернетики, нейронная сеть используется в задачах

адаптивного управления и как алгоритмы для робототехники. С точки зрения

развития вычислительной техники и программирования, нейронная сеть -

способ решения проблемы эффективного параллелизма. А с точки зрения

искусственного интеллекта, искусственная нейронная сеть является основой

философского течения коннективизма и основным направлением в

структурном подходе по изучению возможности построения (моделирования)

естественного интеллекта с помощью компьютерных алгоритмов.

1.2. Нечёткие множества и операции над ними

Понятие нечетких множеств (ант.: fuzzy sets) как обобщение обычных

(четких) множеств было введено Лотфи Аскером Заде в 1965 году.

Предметом нечёткой логики является построение моделей приближенных

рассуждений человека и использование их в компьютерных системах2.

Традиционный способ представления элемента множества А состоит в

применении характеристической функции , которая равна 1, если этот

элемент принадлежит к множеству А, или равна 0 в противном случае. В

нечетких системах элемент может частично принадлежать к любому

множеству. Степень принадлежности к множеству А, представляющая собой

обобщение характеристической функции, называется функцией

принадлежности , причем . Значения функции принадлежности

2 Заде Л. Понятие лингвистической переменной и его применение к принятию приближенных решений. - М.: Мир, 1976. - 166c.

5

Page 6: курсач_1

являются рациональными числами из интервала [0, 1], где 0 означает

отсутствие принадлежности к множеству, а 1 - полную принадлежность.

Конкретное значение функции принадлежности называется степенью или

коэффициентом принадлежности. Эта степень может быть определена явным

образом в виде функциональной зависимости (например, )

либо дискретно - путем задания конечной последовательности значений

в виде .

Например, для последовательности дискретных значений переменной х,

равных x1=7, x2=8, x3=9, x4=10, x5=11, x6=12, x7=13, их коэффициент

принадлежности к числам, близким 10, может быть определен в виде

.

В теории нечетких множеств, помимо переменных цифрового типа,

существуют лингвистические переменные с приписываемыми им значениями.

Пусть переменная х обозначает температуру (х - "температура"). Можно

определить нечеткие множества "отрицательная", "близкая к нулю",

"положительная", характеризуемые функциями принадлежности ,

, .Так же как обычная переменная может принимать различные

значения, лингвистическая переменная "температура" может принимать

различные лингвистические значения. В нашем примере это: "отрицательная",

"близкая к нулю" и "положительная". Следовательно, лингвистическое

выражение может иметь вид: "температура отрицательная", "температура,

близкая к нулю", "температура положительная".

6

Page 7: курсач_1

Рисунок 1 - Принадлежности температуры к области отрицательной, близкой к

нулю либо положительной

На рисунке 1 приведена графическая иллюстрация функции

принадлежности переменной х = Т (где Т означает температуру) для трех

названных множеств значений температуры. Непрерывными линиями

обозначена классическая (точная) принадлежность, а пунктирными линиями -

нечеткая принадлежность. Можно отметить, что функция нечеткой

принадлежности является непрерывным приближением пороговой функции

точной принадлежности.

Каждое нечеткое множество имеет определенный носитель (англ.:

support). Носителем множества Supp(А) является подмножество тех элементов

А, для которых коэффициент принадлежности к А не равен нулю, т.е.

. В приведенном выше примере носителем множества

"близкая к нулю" является множество температур в интервале от - 4°С до + 4°С.

Два множества А(х) и В(х) равны между собой, когда для

каждого элемента обоих множеств. Кардинальное число нечеткого множества А

равно сумме коэффициентов принадлежности всех элементов к этому

множеству, . Нечеткое множество является нормальным, если

хотя бы один элемент этого множества имеет коэффициент принадлежности,

равный 1. Сечение нечеткого множества А образуется подмножеством Аα, для

7

Page 8: курсач_1

которых (слабое сечение) или (сильное сечение), при этом

принадлежит [0,1].

На нечетких множествах, рассматриваемых как обобщение обычных

множеств, можно определить ряд математических операций, являющихся

обобщением аналогичных операций, выполняемых на "четких" множествах. К

ним среди прочих относятся:

1. Логическая сумма множеств :

.

2. Логическое произведение множеств :

.

3. Отрицание множества :

.

4. Операция концентрации :

.

5. Операция растяжения :

.

6. Алгебраическое произведение двух множеств :

.

7. Ограниченная сумма двух нечетких множеств :

.

8. Ограниченная разница двух нечетких множеств :

.

9. Ограниченное произведение двух нечетких множеств :

.

10. Нормализация множества :

.

1.3. Нечёткие правила вывода

Базовое правило вывода типа «если - то» называется также нечеткой

импликацией, принимающей форму «если х это А, то у это В», где А и В - это

8

Page 9: курсач_1

лингвистические значения, идентифицированные нечетким способом через

соответствующие функции принадлежности для переменных х и у. Часть «х это

А» называется условием (предпосылкой), а «у это В» - следствием

(заключением). Данную импликацию можно записать в сокращенном виде

А→В3.

Нечеткое рассуждение - это процедура, которая позволяет определить

заключение, вытекающее из множества правил "если - то". Такое множество

при N переменных хi может принять вид «если х1 это А1 и х2 это А2 и... и xN это

AN, то у это В».

Переменные x1, x2,…, xN образуют N-мерный входной вектор x,

составляющий аргумент условия, в котором А1, А2,…, АN и В обозначают

величины соответствующего коэффициента принадлежности и .

Здесь присутствуют индивидуальные функции принадлежности для каждой

переменной xi и отдельно для у. Случайное значение функции принадлежности

, где х - это вектор , относящееся к условию импликации

(уровень активации правила), должно в последующем интерпретироваться с

использованием введенных ранее нечетких операций. Возможна интерпретация

в форме логического произведения множеств либо в форме алгебраического

произведения:

- интерпретация в форме логического произведения;

- интерпретация в форме алгебраического произведения.

Приписывание единственного значения функции принадлежности,

описывающей многомерное условие, будем называть агрегированием

предпосылки. Каждой импликации А→В, определенной выражением «если х1

это А1 и х2 это А2 и... и xN это AN, то у это В», можно приписать также

единственное значение функции принадлежности . Наиболее

популярные интерпретации этой функции также имеют форму логического или

алгебраического произведения:

3 Оссовский С. Нейронные сети для обработки информации / Пер. с польского И.Д. Рудинского. - М.: Финансы и статистика, 2002. -344 с.

9

Page 10: курсач_1

- форма логического произведения

- форма алгебраического произведения.

Приписывание единственного значения функции принадлежности всей

импликации будем называть процедурой агрегирования на уровне импликации

Выводы

В данной главе описаны основы теории нечётких множеств, нечёткие

правила вывода. Так же введены основные понятия искусственных нейронных

сетей.

2. Системы нечёткого вывода

Нечеткая нейронная сеть - это многослойная нейронная сеть, в которой

слои выполняют функции элементов системы нечеткого вывода. Существует

10

Page 11: курсач_1

две наиболее распространённые системы нечёткого вывода, использующихся в

нечётких нейронных системах. Эти системы можно выбрать критерием

функционирования сети.

2.1. Фаззификатор и дефаззификатор

Фаззификатор преобразует N-мерный входной вектор в

нечеткое множество А, характеризуемое функцией принадлежности с

четкими переменными. Несмотря на то, что нечеткие системы могут иметь

функции принадлежности произвольной структуры, с практической точки

зрения наибольшей популярностью пользуются функции гауссовского типа, а

также треугольные и трапецеидальные функции.

Общая форма гауссовской функции для переменной х с центром с и

вариацией σ для множества F имеет вид .

В нечетких сетях также применяется обобщенная гауссовская функция,

которая определяется формулой . Она оперирует тремя

параметрами: с, σ и b. Значение параметра b существенным образом влияет на

форму кривой, что демонстрируется на рисунке 2.

Рисунок 2 - Иллюстрация влияния параметра b на форму гауссовской функции

11

Page 12: курсач_1

Помимо гауссовской функции принадлежности, на практике часто

применяется симметричная треугольная функция, которую можно записать в

виде .

Интерпретация центральной точки с и ширины d для треугольной

функции представлена на рисунке 3. Эта функция тоже нормирована и

принимает единичное значение в центральной точке с.

Рисунок 3 - Треугольная форма функции принадлежности

Обобщением треугольной функции является трапецеидальная функция

принадлежности, форма и обозначения которой показаны на рисунке 4. Если

определить , , где s обозначает угол наклона, то

трапецеидальная функция будет описываться зависимостью

.

Выбор значения t = 0 редуцирует трапецеидальную функцию до

треугольной формы.

12

Page 13: курсач_1

Рисунок 4 - Трапецеидальная форма функции принадлежности

Дефаззификатор трансформирует нечеткое множество в полностью

детерминированное точечное решение у. Нечеткое множество представляет

зависимость как функцию от выходной переменной у.

Преобразование этого множества в единственное точечное решение возможно

многими способами. Наиболее известны среди них:

1. Дефаззификация относительно центра области:

.

2. Дефаззификация относительно среднего центра:

, где yci - центр i-го нечеткого правила, a - значение

функции принадлежности, соответствующей этому правилу.

3. Дефаззификация относительно среднего максимума:

, где m - количество точек переменной у, в которых достигает

максимального значения. Если функция имеет максимальное значение

только в одной точке ymax, то yM=ymax. Если достигает своих максимальных

значений между yl и yp, то yM=0.5(yl - yp).

На практике наиболее часто применяют дефаззификация относительно

среднего центра

13

Page 14: курсач_1

2.2. Система нечёткого вывода Мамдани-Заде

Системы нечеткого вывода предназначены для реализации процесса

нечеткого вывода и служат базисом всей современной нечеткой логики.

Достигнутые успехи в применении этих систем для решения широкого класса

задач управления послужили основой становления нечеткой логики как

прикладной науки с богатым спектром приложений. Системы нечеткого вывода

позволяют решать задачи автоматического управления, классификации данных,

распознавания образов, принятия решений, машинного обучения и многие

другие. Поскольку разработка и применение систем нечеткого вывода имеет

междисциплинарный характер, данная проблематика исследований тесно

взаимосвязана с целым рядом других научно-прикладных направлений, таких

как: нечеткое моделирование, нечеткие экспертные системы, нечеткая

ассоциативная память, нечеткие логические контроллеры, нечеткие регуляторы

и просто нечеткие системы.

Элементы теорий нечетких множеств, правила импликации и нечетких

рассуждений образуют систему нечеткого вывода. В ней можно выделить

множество используемых в системе нечетких правил, базу данных,

содержащую описания функций принадлежности, а также механизм вывода и

агрегирования, который формируется применяемыми правилами импликации.

Следует упомянуть, что в случае технической реализации в качестве входных и

выходных сигналов выступают измеряемые величины, однозначно

сопоставляющие входным значениям соответствующие выходные значения.

Для обеспечения взаимодействия множеств этих двух видов вводится нечеткая

система с фаззификатором на входе и дефаззификатором на выходе.

Фаззификатор преобразует точное множество входных данных в нечеткое

множество, определяемое с помощью значений функций принадлежности,

тогда как дефуззификатор решает обратную задачу - он формирует однозначное

решение относительно значения выходной переменной на основании многих

нечетких выводов, вырабатываемых исполнительным модулем нечеткой

системы. Выходной сигнал этого модуля может иметь вид М нечетких

множеств, определяющих диапазон изменения выходной переменной.

14

Page 15: курсач_1

Дефаззификатор преобразует этот диапазон в одно конкретное значение,

принимаемое в качестве выходного сигнала всей системы.

Рисунок 5 - Организация вывода в нечеткой системе при наличии М правил

вывода

Поскольку допускается применение множества нечетких правил, в

данной системе также предусмотрен блок агрегирования, чаще всего

реализуемый в виде логического сумматора (оператор Мах). Описываемая

система вывода называется системой Мамдани-Заде. Данная система популярна

в неадаптивных нечетких системах. Как правило, в модели Мамдани-Заде

присутствуют следующие операторы:

1. Оператор логического или арифметического произведения для

определения результирующего уровня активации, в котором учитываются все

компоненты вектора х условия.

2. Оператор логического или арифметического произведения для

определения значения функции принадлежности для всей импликации А→В.

3. Оператор логической суммы как агрегатор равнозначных результатов

импликации многих правил.

4. Оператор дефаззификации, трансформирующий нечеткий результат

в четкое значение выходной переменной у.

На рисунке 6 представлен способ агрегирования двух правил нечеткого

вывода при существовании двух значений переменных х1 и x24. Логическое

4 http://www.intuit.ru

15

Page 16: курсач_1

произведение (оператор Min) используется как для агрегирования нечетких

правил относительно конкретных переменных xi (i=1, 2), которые образуют

вектор х, так и на уровне импликации А→В для одиночных правил вывода.

Агрегирование импликаций, касающихся правил 1 и 2, проводится с

использованием логической суммы (оператор Мах). В правой нижней части

рисунка представлен нечеткий результат в виде функции принадлежности

переменной у. Получение четкого значения у, соответствующего также четким

значениям входных переменных х1 и x2, требовало бы в этом случае применения

процедуры дефаззификации.

Рисунок 6

2.3. Система нечёткого вывода Такаги-Сугено-Канга

Наибольшую популярность среди нечетких систем адаптивного типа

приобрела система вывода Такаги-Сугено-Канга (TSK). В этой системе

функция заключения определяется нечетким, но точечным образом. Благодаря

этому дефаззификатор на выходе системы не требуется, а модель вывода

значительно упрощается. Общая форма системы TSK может быть представлена

в виде «если х1 это А1 и х2 это А2 и … и xN это АN, то y=f(x1, x2, …, xN)». В

векторном виде модель TSK может быть записана в виде «если x это А, то

y=f(x)», где f(x)= f(x1, x2, …, xN). В этой зависимости часть, относящаяся к

16

Page 17: курсач_1

условию, точно такая же, как и в системе Мамдани-Заде. Принципиальное

отличие касается заключения, которое представляется в форме

функциональной зависимости, чаще всего - в виде полиномиальной функции

нескольких переменных. Классическое представление этой функции - это

полином первого порядка: , где коэффициенты p0, р1, …, pN -

это цифровые веса, подбираемые в процессе адаптации (обучения). Более

простая модель вывода TSK получается, если применять функцию f(x) в виде

полинома первого порядка, в котором y=f(x)=p0.

Если в модели вывода TSK используется несколько (М) правил, то выход

системы определяется как их средневзвешенное. Приписывая каждому правилу

вес wi, получим выходной сигнал вида или . В

выражении веса wi отвечают условию нормализации:

. Если для каждого i-огo правила (где i = 1, 2, …, M) реализуется

функция TSK первого порядка: , то можно получить описание

выходной функции модели TSK в форме: , которая

линейна относительно всех входных переменных системы xj для j=1, 2, ..., N.

Веса wi являются нелинейными параметрами функции у. В адаптивных

системах они подвергаются обучению для достижения наилучшей

приспособленности модели к заданным значениям, тогда как в неадаптивных

системах они уточняются для определения уровня активации условия в правиле

вывода непосредственно в процессе анализа данных. Подбор этих уровней - это

результат агрегирования правил, соответствующих конкретным компонентам

17

Page 18: курсач_1

вектора х условия, он выполняется с использованием логического или

алгебраического произведения так же, как в модели Мамдани-Заде.

На рисунке 7 иллюстрирует система Такаги-Сугено-Канга с двумя

правилами вывода для системы с двумя входными переменными х1 и x2

(аналогично примеру для системы Мамдани-Заде).

Рисунок 7

Левая часть рисунка относится к условию. Уровень активации в

определяется как логическое произведение (оператор Min) от .

Веса w1 и w2, которые учитываются при агрегировании обоих правил вывода в

модели TSK, соответственно равны: и . В правой части

рисунка представлены соответствующие формы линейной функциональной

зависимости TSK, описывающей заключения обоих правил вывода. Таким

образом, окончательный (агрегированный) результат вывода по этой модели

TSK в соответствии можно представить в виде

, где y1=p10+p11x1+p12x2, y2=p20+p21x1+p22x2. В отличие от модели Мамдани-Заде

выражение, описывающее выходной сигнал, является четким и соответственно

отсутствует необходимость дефуззификации5.5 Оссовский С. Нейронные сети для обработки информации / Пер. с польского И.Д. Рудинского. - М.: Финансы и статистика, 2002. -344 с.

18

Page 19: курсач_1

Выводы

В данной главе рассмотрены две основных системы нечёткого вывода и

приведены их примеры. Так же рассмотрен принцип работы дефаззификатора

и фаззификатора.

3. Примеры нечётких нейронных сетей и возможность их применения

Рассмотренные в предыдущей главе системы вывода Мамдани-Заде и

Такаги-Сугено-Канга позволяют описать выходной сигнал многомерного

процесса как нелинейную функцию входных переменных xi (i=1, 2, ..., N) и

параметров нечеткой системы. Данные системы вывода позволяют

аппроксимировать с произвольной точностью любую нелинейную функцию

многих переменных суммой нечетких функций одной переменной. Они имеют

модульную структуру, идеально подходящую для системного представления в

виде равномерной многослойной структуры, напоминающей структуру

классических нейронных сетей. Благодаря этому, системы вывода Мамдани-

Заде и Такаги-Сугено-Канга применяются для построения нечётких нейронных

19

Page 20: курсач_1

сетей. Характерной особенностью этих сетей является возможность

использования нечетких правил вывода для расчета выходного сигнала. В

отличие от классических нечетких систем на основе нечёткой логики в них

вместо непосредственного расчета уровня активации конкретных правил

вывода выполняется адаптивный подбор параметров функции фаззификации.

3.1. Сеть Такаги-Сугено-Канга

Обобщенную схему вывода в модели TSK при использовании М правил и

N переменных хj можно представить в виде

.

Условие if (xi is Ai) реализуется функцией фаззификации, которая

представляется обобщенной функцией Гаусса отдельно для каждой переменной

хi : , где представляет оператор Ai. В нечетких сетях

целесообразно задавать это условие в форме алгебраического произведения, из

которой следует, что для k-ого правила вывода .

При М правилах вывода агрегирование выходного результата сети

производится по формуле: , где .

Присутствующие в этом выражении веса wk интерпретируются как

значимость компонентов . При этом условии формуле

можно сопоставить многослойную структуру сети,

изображенную на рисунке 8. В такой сети выделяется пять слоев.

20

Page 21: курсач_1

1. Первый слой выполняет раздельную фаззификацию каждой

переменной xi (i = 1, 2, …, N), определяя для каждого k-ого правила вывода

значение коэффициента принадлежности в соответствии с

применяемой функцией фаззификации. Это параметрический слой с

параметрами , подлежащими адаптации в процессе обучения.

2. Второй слой выполняет агрегирование отдельных переменных хi,

определяя результирующее значение коэффициента принадлежности

для вектора x (уровень активации правила вывода. Это слой

непараметрический.

3. Третий слой представляет собой генератор функции TSK,

рассчитывающий значения . В этом слое также производится

умножение сигналов уk(х) на значения wk, сформированные в предыдущем слое.

Это параметрический слой, в котором адаптации подлежат линейные веса pkj

для k= 1, 2, …, М и j = 1, 2, …, N, определяющие функцию следствия модели

TSK.

4. Четвертый слой составляют два нейрона-сумматора, один из которых

рассчитывает взвешенную сумму сигналов yk(x), а второй определяет сумму

весов . Это непараметрический слой.

5. Пятый слой состоит из единственного выходного нейрона. Это

нормализующий слой, в котором веса подвергаются нормализации. Выходной

сигнал у(х) определяется выражением . Это также

непараметрический слой.

21

Page 22: курсач_1

Рисунок 8 - Нечёткая нейронная сеть Такаги-Сугено-Канга

Нечеткая сеть TSK содержит только два параметрических слоя (первый и

третий), параметры которых уточняются в процессе обучения. Параметры

первого слоя называются нелинейными параметрами, поскольку они относятся

к нелинейной функции, а параметры третьего слоя - линейными весами, так как

они относятся к параметрам pkj линейной функции TSK.

Допустим, что в конкретный момент времени параметры условия

зафиксированы, тогда функция у(х) является линейной относительно

переменных хi (i=1, 2, ..., N).

При наличии N входных переменных каждое правило формирует N+1

переменных pj(k) линейной зависимости TSK. При М правилах вывода это дает

M(N+l) линейных параметров сети. В свою очередь, каждая функция

принадлежности использует три параметра (с, s, b), подлежащих адаптации.

22

Page 23: курсач_1

Если принять, что каждая переменная хi характеризуется собственной функцией

принадлежности, то при М правилах вывода мы получим 3MN нелинейных

параметров. В сумме это дает M(4N+1) линейных и нелинейных параметров,

значения которых должны подбираться в процессе обучения сети.

На практике для уменьшения количества адаптируемых параметров

оперируют меньшим количеством независимых функций принадлежности для

отдельных переменных, руководствуясь правилами, в которых комбинируются

функции принадлежности различных переменных. Если принять, что каждая

переменная хi имеет m различных функций принадлежности, то максимальное

количество правил, которые можно создать при их комбинировании, составит

M=mN (при трех функциях принадлежности, распространяющихся на две

переменные, это 32 = 9 правил вывода). Таким образом, суммарное количество

нелинейных параметров сети при М правилах вывода уменьшается с 3MN в

общем случае до 3NM1/N. Количество линейных параметров при подобной

модификации остается без изменений, т.е. M(N+1).

3.2. Сеть Ванга-Менделя

На основе системы вывода Мамдани-Заде, можно получить структуру

нечеткой сети, определенную Л. Вангом и Дж. Менделем. Структура такой сети

представлена на рисунке 9.

Это четырехслойная структура, в которой первый слой выполняет

фаззификацию входных переменных, второй - агрегирование значений

активации условия, третий (линейный) - агрегирование М правил вывода

(первый нейрон) и генерацию нормализующего сигнала (второй нейрон), тогда

как состоящий из одного нейрона выходной слой осуществляет нормализацию,

формируя выходной сигнал у(х). Только первый и третий слои являются

параметрическими. В первом слое это параметры функции фаззификации (

), а в третьем слое - веса v1, v2, …, vM, интерпретируемые как центр сk

функции принадлежности следствия k-ого нечеткого правила вывода.

23

Page 24: курсач_1

Представленная на рисунке 9 сеть реализует функцию аппроксимации

вида .

Рисунок 9 - Нечёткая нейронная сеть Ванга-Менделя

Структура сетей Ванга-Менделя и Такаги-Сугено-Канга во многом

похожи. Части, определяющие условие (первый и второй слои) у них

идентичны, поскольку они соответствуют компонентам правил вывода «if ... »,

одинаково представляемым и в системе Мамдани-Заде, и в системе TSK.

Различия наблюдаются в представлении компонентов «then». В сети TSK

результат представляется полиномом первого порядка. В сети Ванга-Менделя

результат представляется константой (vk=ck), которую можно рассматривать как

полином нулевого порядка, определяющий центр функции принадлежности.

Таким образом, с функциональной точки зрения сеть Ванга-Менделя подобна

сети TSK.

24

Page 25: курсач_1

Задача обеих сетей (TSK и Ванга-Менделя) состоит в таком отображении

пар данных (х, d), чтобы ожидаемое значение, соответствующее входному

вектору х, формировалось выходной функцией сети у(х).

Обучение нечетких сетей, так же как и классических сетей, может

проводиться либо по алгоритму с учителем, основанному на минимизации

целевой функции, задаваемой, как правило, с использованием эвклидовой

нормы как , где ρ обозначает количество обучающих пар (х,

d), либо по алгоритму самоорганизации, согласно которому выполняется

кластеризация данных.

Выводы

В данной главе рассмотрены две простейших нечётких нейронных сети

(Ванга-Менделя и Такаги-Сугено-Канга), описана их структура. Так же

проведено краткое сравнение этих двух сетей.

Заключение

В данной курсовой работе были рассмотрены основные понятия нечётких

множеств, описаны системы нечёткого вывода, использующиеся при

проектировании нечётких нейронных сетей, а так же приведены примеры двух

наиболее распространённых нечётких сетей.

На сегодняшний день искусственные нейронные сети являются одним из

наиболее перспективных направлений в области искусственного интеллекта. И

наиболее приближенными к биологическим нейронным сетям являются сети на

основе нечёткой логики и нечётких систем вывода.

25

Page 26: курсач_1

Нечёткие нейронные сети ещё достаточно «молодое» направление

нейронных сетей, но уже сейчас они нашли широкое применение, например, в

моделировании социально-экономических процессов или принятии решений в

условиях риска.

Список литературы

1. Заде Л. Понятие лингвистической переменной и его применение к принятию

приближенных решений. - М.: Мир, 1976. - 166c.

2. Оссовский С. Нейронные сети для обработки информации / Пер. с польского

И.Д. Рудинского. - М.: Финансы и статистика, 2002. -344 с.

3. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и

практика. - М.: Горячая линия-Телеком, 2002. -382 с.

4. http://www.intuit.ru

5. http://ru.wikipedia.org

26

Page 27: курсач_1

6. http://www.basegroup.ru/library/analysis/fuzzylogic

7. http://www.marshal-group.com

8. http://hexlet.ru/blog/fuzzy/21.html

9. http://rk6.bmstu.ru/electronic_book/iisapr/NN/Intro.html

27