به نام خدا
DESCRIPTION
به نام خدا. A Specialized Transiently Chaotic Neural Network for the Minimum Vertex Cover Problem حل مساله پوشش راسی در گراف با استفاده از شبکه عصبی بی نظم گذرای ویژه. مقدمه. این مساله یک مساله ی NP-Complete است. در این مقاله یک شبکه ی عصبی بی نظم گذرای مخصوصی برای این مساله ارائه می شود. - PowerPoint PPT PresentationTRANSCRIPT
به نام خدا
A Specialized Transiently Chaotic Neural Networkfor the Minimum Vertex Cover Problem
حل مساله پوشش راسی در گراف با استفاده از شبکه عصبی بی نظم گذرای ویژه
مقدمه
است.NP-Completeاین مساله یک مساله ی •در این مقاله یک شبکه ی عصبی بی نظم گذرای •
مخصوصی برای این مساله ارائه می شود.نتایج نشان می دهد که شبکه ی عصبی بی نظم گذرا •
روی گراف هایی که به طور تصادفی تولید می شوند نتیجه ی بهتری می دهد.
مساله پوشش راسی در گراف
V را در نظر می گیریم که G(V,E)گراف غیرجهتدار • مجموعه ی یالها باشد. Eمجموعه ی رئوس و
’ است Vمجموعه ی پوشش راسی مینیمم مجموعه است. که برای هر V’ زیرمجموعه ی Vبه طوری که
< یال a( یا abیالی که در این گراف وجود دارد )مثًال و یا هردو.b’ است یا Vعضو
مثال
مساله پیدا کردن پوشش راسی مینیمم یک مساله ی •مهم در علوم کامپیوتر است.
-NP نشان داد که این مساله Karp، 1972در سال •complete است.)به این معنا که غیرممکن است
الگوریتمی در زمان چند جمله ای برای حل این مساله در بدترین حالت پیدا کنید(
NP-completeاین مساله حتی برای گراف های خاص هم •< گراف با حداکثر درجه ی (5است.)مثًال
الگوریتم های زیادی برای حل این مساله ارائه شده است •شامل الگوریتم های تقریبی، الگوریتم های پارامتری و
الگوریتم های ابتکاری.
Hopfield network
نوعی از شبکه های عصبی مصنوعی بازگشتی است • ایجاد شده John Hopfield توسط 1982که در سال
است.این شبکه ها به عنوان سیستم های حافظه آدرس •
پذیر از طریق محتوا با گره های باینری به کار می روند.
این شبکه ها تضمین می کنند که به مینیمم محلی •همگرا می شوند ولی ممکن است بعضی اوقات به
مینیمم محلی اشتباهی همگرا شوند.
ساختار
ارزش واحدها در این شبکه ها باینری است یعنی یک •حدآستانه ای تعریف می شود اگر از آن بیشتر شد یک
مقدار و اگر بیشتر نشد مقدار دیگری را می گیرد. 0 و 1 باشند و یا 1 و -1این مقادیر باینری می توانند •
باشند. با هم مرتبط هستند که با وزن j و iهر جفت واحد •
Wij.توصیف می شود •G=<V,f که >V.مجموعه ی نرون هاست
•f تابعی از V^2 به مجموعه ی اعداد حقیقی R.است
ساختار
شرایط زیر را در این نوع شبکه ها داریم:•( Wii=0هیچ راسی با خودش ارتباط ندارد )••Wij=Wjiاین تقارن باعث می شود که تابع انرژی به طور یکنواخت •
کاهش پیدا کند.اگر این تقارن وجود نداشته باشد ممکن است رفتارهای بی •
نظم و تناوبی از خود نشان دهد.این رفتارهای بی نظم به بخش های کوچکی از فضای فاز •
مربوط می شوند و تونایی شبکه را برای اینکه به عنوان یک سیستم حافظه شرکت پذیر قابل آدرس دهی براساس محتوا
عمل کند از بین نمی برند.
به روز رسانی
Wij وزن بین اتصال دو است.j و iیال
Sj حالت واحد j.است Өi مقدار آستانه واحد i
است.
دو روش برای به روزرسانی
آسنکرون: فقط یک واحد در یک زمان به •روزرسانی می شود که این واحد می تواند به صورت تصادفی یا با یک ترتیب از پیش تعیین
شده انتخاب شود.سنکرون: تمام واحدها در یک زمان به •
روزرسانی شوند.
جذب و دفع نرون ها توسط همدیگر
( تاثیر زیادی روی ارزش wوزن بین دو نرون )•( دارد.sنرون )
• If Wij>0 and Sj=1 then Si is pulled by j to 1(Sj)• If Wij>0 and Sj=-1 then Si is pulled by j to -1(Sj)
به همدیگر j و iبنابراین ارزش نرون های • باشد.Wij>0همگرا می شوند اگر
از همدیگر واگرا می j و iو ارزش نرون های • باشد.Wij<0شوند اگر
انرژی شبکه
انرژی شبکه
این مقدار انرژی شبکه نامیده می شود به این •دلیل که با عملیات به روزرسانی نرون ها یا
مقدار آن کم می شود و یا ثابت می ماند.اگر به طور مکرر به روزرسانی نرون ها انجام •
شود به مینیمم محلی انرژی شبکه می رسیم. نامیده می شود( اگر این Lyapunov)که تابع
یک مینیمم محلی برای تابع انرژی باشد یک حالت پایدار خواهد بود.
حل مساله با استفاده از شبکه های عصبی Hopfield
این شبکه ها دارای دو بخش به نام های •neuron unit و motion equation هستند. که neuron unit همان مجموعه ی نرون ها می
باشد.دارد. viو یک خروجی uiهر نرون یک ورودی • equation motionرفتار شبکه با استفاده از •
توصیف می شود.
equation motionu.ورودی نرون است V.خورجی نرون است E.انرژی شبکه است r یک فاکتور کاهش
است.
تابع خروجی
بررسی مساله
را در نظر می گیریم G=(V,E)گراف غیرجهتدار • تا یال داریم.m تا راس و nو فرض می کنیم
تا 1 بین j و iرا به طوری که dijمقادیر باینری •n هستند در نظر می گیریم. که از ماتریس
آمده اند.Gمجاورت گراف
مثال ماتریس مجاورت
بررسی مساله
به شکل زیر تعریف می شود:iحالت نرون ••Vi=1 اگر راس i ام در مجموعه ی پوشش-
راسی مینیمم باشد در غیراینصورت برابر صفر است.
بنابراین تعداد نرون های شبکه برابر تعداد • راس nرئوس گراف است. پس اگر گراف
نرون نیاز داریم.nداشته باشد به
تعداد رئوس در مجموعه پوشش راسی مینیمم به شکل زیر نمایش داده می شود
بررسی مساله( به وسیله ی i,jاگر یال )
این مجموعه پوشش داده هر دو vj و viنشود بنابراین
صفر خواهند بود.در معادله سمت راست ∨
منطقی و خط باال orهمان همان متمم است.
هدف مساله مینیمم کردن E1 با این شرط که E2 برابر
صفر باشد است.
بنابراین تابع انرژی در این مساله به شکل زیر نمایش داده می شود
شبکه عصبی بی نظم گذرا
این Hopfieldایراد اصلی شبکه ی عصبی •است که در مینیمم محلی گیر می کند) به
(gradient descent dynamicsعلت gradient descent dynamicsبه جای استفاده از •
chaotic dynamicsاز شبکه های عصبی با استفاده شده است.
Transiently Chaotic Neural Network
برای استفاده از مزیت همگرایی شبکه های •Hopfield و chaotic dynamics شخصی به نام
Chen et al مدل .Transiently Chaotic Neural Network .را توسعه داد
Transiently Chaotic Neural Network
vi خروجی نرون i.است ui حالت درونی نرون i.است
wij وزن یال مرتبط بین نرون i و است.jنرون
Ii بایاس ورودی نرون i.است :
پارامتر مقایس گذاری مثبت برای وردی است.
k فاکتور تعدیل برای غشاء رشته ی عصبی است. و بین صفر و یک
می باشد.Zi(t) وزن اتصال بازخورد یا
مقاومت کننده است. که بزرگتر یا مساوری صفر می باشد.
ابسیلون پارامتر شیب برای تابع خروجی است.
می باشد.Zبتا فاکتور تعدیل برای Io .پارامتر مثبت است
Transiently Chaotic Neural Network
•Z .همان دما در پردازش حرارت تصادفی است بنابراین معادله اسًالید قبل یک کم کننده
حرارت نمایی است.با این معادالت شبکه ی عصبی در ابتدا به طور •
نامنظم و غیرقابل پیش بینی رفتار می کند و به اندازه ی کافی کوچک می zدر نهایت وقتی
شود به یک نقطه ی پایدار همگرا می شود.
Transiently Chaotic Neural Network
این شبکه ها از معادله دو اسًالید قبل به عنوان •معادله ی پویای خود استفاده می کنند. در این
وجود دارد که تمامی I0معادله یک پارامتر شبکه هایی که به این شکل هستند یک مقدار
> و یا 0.65 یا 0.5ثابتی به آن می دهند. مثًال0.75
این پارامتر تاثیر مهمی در معادله دارد. وقتی •که شاخه ها ناپدید می شوند خروجی یک نرون
نزدیک می شود. I0خیلی به
توصیف مدل تک نرونی
در مدل تک vنمودار تغییرات نرونی
در مدل تک vنمودار تغییرات نرونی
vنمودار تغییرات
همانطور که در دو شکل قبل مشخص است •خواهد I0 برابر vبعد از عبور از دوشاخه مقدار
بود.اگر آلفا خیلی بزرگ باشد این نوع شبکه ها •
نمی توانند سیگنال های نامنظم تولید کنند. واضح است که در قسمت دوم معادله ی
بزرگ خواهد شد اگر آلفا بزرگ 27اسًالید شود. در این معادله اگر قسمت دوم از
قسمت سوم خیلی بزرگتر شود قسمت سوم < بی اثر می شود. تقریبا
Transiently Chaotic Neural Network
اگر فاز نامنظم نباشد این شبکه ها از حالت داینامیک •بودن خود خارج می شوند.
اگر آلفا کوچک باشد این الگوریتم از قدم های •بیشتری برای رسیدن به نقطه ی تعادل باید استفاده
کند.
نتایج شبیه سازی
این نوع شبکه ها برای حل مساله پیدا کردن مجموعه ی •پوشش راسی مینیمم در گراف استفاده شده است که گراف
ها دو نوع هستند:.گراف هایی که به طور تصادفی تولید شده اند.1•.benchmark.گراف های 2• تعداد رئوس n دارد که d و nهر گراف تصادفی دو مشخصه ی •
مقداری بین صفر و یک dرا در آن گراف معلوم می کند و است که چگالی یال می باشد.
dاز رابطه زیر محاسبه می شود
برای گرافهایی که به طوری تصادفی تولید می • و شبکه های عصبی Yuanشوند الگوریتم
گذرای نامنظم مقایسه شده اند. در این شبکه در نظر گرفته شده است. و 0.65 برابر I0ها
پارامتر های دیگری مانند شکل باال تعریف شده اند.
پارامترهای مدل مطرح شده به شکل زیر است
نتایج
•Yuan et al. نشان داد که این متد می تواند در 2300 iteration به نقطه تعادل برسد اگر
< غیرفعال < فعال باشد و یا کامًال نرون کامًالباشد.
نتایج برای گراف تصادفی
نتایج برای گراف های موجود
پایان