مارکوارت در مسائل تشخیص الگو بسیار ضعیف میباشد. الگوریتم تطبیقی پس انتشار سریعترین الگوریتم در مسائل تشخیص الگو میباشد؛ اگرچه در مسائل تقریب تابع به خوبی عمل نمینماید. عملکرد این الگوریتم در مقایسه با الگوریتم تطبیقی پس انتشار با کاهش خطار کاهش مییابد. الگوریتم گرادیان مرکب نسبت به سایر الگوریتمها به حافظه کمتری نیاز دارد. الگوریتم شبهنیوتنی نیز مشابه الگوریتم لونبرک- مارکوارت بوده، اما نسبت به آن حافظه بیشتری دارد. روش الگوریتم یادگیری متغیر نسبت به دیگر روشها کندتر، اما حافظه مورد نظر در آن مشابه الگوریتم تطبیقی پسانتشار بوده، اما برای برخی مسائل مناسب میباشد. در واقع موقعیتهایی وجود دارد که بهتر است بسیار آرام همگرا گردند [27]. با توجه به توضیحات ارائه شده، الگوریتم لونبرگ- مارکوات جهت استفاده در این مطالعه مناسب به نظر میرسد.

4-8-2. انتخاب تعداد لایههای پنهان
تعیین تعداد لایههای پنهان و تعداد گرههای هر لایه یکی از مهمترین مراحل طراحی یک شبکهی عصبی میباشد که بیشک به پیچیدگی شبکه و کاربرد آن بستگی دارد. برای تعیین بهینهی تعداد لایهها و گرهها، انتخاب ساختارهای مختلف و آموزش آنها مبنا میباشد. سپس بهترین ساختاری که با تعداد لایهها و گرههای کمتر زودتر به مینیمم مقدار خطای مورد نظر رسیده باشد انتخاب میگردد.Baugham و Liu در سال 1995 بیان کردند که افزودن دومین لایهی پنهان بدون اینکه تأثیر زیانآوری در کاهش عمومیت بخشی دادهها مربوط به آزمایش داشته باشد توانایی پیشبینی شبکه را در پیشبینی نسبت به شبکه با دولایه چندان تغییر نمیدهد فقط به دلیل ایجاد ساختار پیچیده، زمان لازم برای همگرایی افزایش مییابد[30].
در این مطالعه در ابتدا شبکههای مختلف با یک لایه و سپس با دو لایه میانی بررسی و خطای آنها لحاظ گردیدند.
4-8-3. انتخاب تعداد نرون ها در لایه میانی
یکی از مهمترین مراحل در مدلسازی با استفاده از شبکهی عصبی تعیین تعداد بهینهی نرونها میباشد. تعیین تعداد بهینهی نرونها در شبکه از جمله کارهای مهم میباشد. قاعده های سرانگشتی حهت تعیین نقطه شروع وحود دارند. اولین پیشنهاد به این صورت می باشد که در صورت تعیین لایه پنهان تعداد نرون ها می تواند 75 درصد تعداد ورودی ها انتخاب گردد. در دومین پیشنهاد تعداد نرون های لایه میانی دو برابر ریشه دوم مجموع تعداد ورودی ها و خروجی ها انتخاب می گردد. در کل می توان گفت هر چه پیچیدگی مساله بیشتر باشد تعداد نرون های بیشتری نیاز می باشد. البته باید متناسب با تعداد کل نرونها، داده جهت آموزش شبکه وجود داشته باشد تا شبکه بهخوبی آموزش یابد [27].
فرایند سعی و خطا جهت دستیابی به تعداد بهینهی نرون ها در لایههای میانی آغاز گردید. در ابتدا یک لایهی پنهان انتخاب و تعداد نرون ها در آن از 1 تا 15نرون متغیر در نظر گرفته شد وخطای شبکه در هر دو فاز آموزش و ارزیابی بهدست آمد. سپس ساختارهای مختلف شبکه با دو لایه و تعداد نرون های متغیر در هر دو لایه نیز بررسی گردید و خطای هر یک از حالات در هر دو فاز آموزش و ارزیابی بهدست آمد.

مطلب مشابه :  دانلود پایان نامه ارشد دربارهقانون مجازات، دفاع مشروع، ضرب و جرح، حقوق جزا

4-8-4. تعیین مقادیر اولیه فاکتور های وزنی
پیش از آموزش شبکهی عصبی مقادیر اولیهی فاکتورهای وزنی در لایههای پنهان باید تنظیم گردند. معمولاً فاکتورهای وزنی با یک تابع توزیع نرمال یا گوسین در محدودهی کوچکی بین صفر تا یک بهصورت تصادفی تنظیم میشوند. هدف از انجام این کار کاهش خطای لایهی نهایی میباشد. انتخاب غلط وزنهای اولیه سبب پدیدهی اشباع زودرس گرهها میگردد. اشباع زودرس گره ها به این معنی میباشد که در طول فرایند آموزش، مجموع مربعات خطاها برای بعضی دورهها ثابت باقی مانده و کاهش آن بعد از این دورهها تقریباً متوقف میگردد. جدول ذیل جهت تعیین توزیع فاکتورهای وزنی در الگوریتم پسانتشار خطا بر اساس تعداد متغیرهای ورودی (ورودیها قبل از نرمال شدن در نظر گرفته می شوند) و تعداد کل گرهها در لایهی پنهان می باشد [30].

جدول(4-6) محدوده فاکتورهای وزنی جهت تخمین اولیه

4-8-5. انتخاب تابع انتقال مناسب
انتخاب تابع انتقال مناسب بر مبنای کاربرد شبکه صورت میگیرد. تابع انتقالهای سیگموئیدی و تانژانت هایپربولیک برای غالب انواع شبکهها مخصوصاً شبکههایی که برای مسائل پیشبینی تابع استفاده میگردند مناسب هستند. تابع انتقال گوسین نیز برای مسائل طبقهبندی استفاده میگردد. البته میتوان گفت که تابع انتقال تانژانت هایپربولیک نسبت به تابع انتقال سیگموئیدی ارجحیت دارد. خروجی تابع انتقال تانژانت هایپربولیک در محدوده 1- تا 1 ، اما خروجی تابع انتقال سیگموئیدی در محدوده 0 تا 1 تغییر مینماید. یعنی تابع انتقال تانژانت هایپربولیک برای ورودیهای منفی، خروجیهای منفی تولید مینماید اما تابع انتقال سیگموئیدی برای تمامی مقادیر خروجی مثبت ایجاد می نماید [30].
4-8-6. آموزش شبکه


دیدگاهتان را بنویسید