آموزش با نظارت
در این شیوه آموزش ورودیهای شبکه و خروجیهای متناظر با آنها از قبل مشخص میباشند. در حین آموزش ورودی به شبکه عصبی اعمال میشود و شبکه در پاسخ به آن ورودی محرک پاسخ خروجی را نتیجه میدهد. این خروجی با خروجی مطلوب که اصطلاحاً خروجی هدف گفته میشود مقایسه میگردد. حال اگر خروجی واقعی با خروجی مطلوب مغایرت داشته باشد شبکه یک سیگنال خطا تولید میکند که از این سیگنال خطا برای میزان تغییری که باید بر وزنههای سیناپس اعمال شود استفاده میگردد. به عبارت دیگر خطا را کاهش میدهیم و در صورت امکان آن را به صفر میرسانیم. این روند حداقل نمودن خطا به یک مدار ویژه به نام معلم یا ناظر نیاز دارد که عمل مقایسه خروجی واقعی و خروجی مطلوب را انجام میدهد و شبکه را با توجه به این میزان سیگنال خطا را تعدیل می کند، تا اینکه آموزش لازم را ببیند. به همین دلیل به این شیوه آموزش، آموزش با نظارت گفته میشود ]۲۵[.
( اینجا فقط تکه ای از متن پایان نامه درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. )
اصطلاح معلم یا سرپرست از مشاهدات بیولوژیکی استخراج شده است. برای مثال هنگامی که میخواهیم یک زبان را یاد بگیریم. ابتدا از معلم شیوه تلفظ یک کلمه را میشنویم. این تلفظ در بانکهای حافظه مغزمان ذخیره میشود. بعد سعی میکنیم که آن کلمه را به همان شکل تلفظ کنیم هنگامی که صدای خود ( خروجی واقعی) را میشنویم آن را با صدای ذخیره شده (خروجی مطلوب) را مقایسه میکنیم و خطا را ثبت میکنیم. اگر خطا زیاد باشد دوباره سعی میکنیم تا میزان خطا به حد قابل ملاحظهای کوچک شود و آنگاه تکرار را متوقف میکنیم.
در شبکههای عصبی مصنوعی، میزان محاسبات لازم برای حداقل نمودن خطا به شیوه آموزش، یا اصطلاحاً الگوریتم آموزش به کار گرفته شده بستگی دارد که این الگوریتم روش کاملاً ریاضی مشتق شده از تکنیکهای بهینه سازی است. در حال حاضر روشهای دیگری که کارآمدتر از روشهای ریاضی هستند وجود دارد که برای تعدیل وزنه به کار میروند مانند الگوریتم ژنتیک.
آموزش بدون نظارت
در این روش برخلاف شیوه آموزش با نظارت، نیاز به معلم نیست یعنی خروجی هدف وجود ندارد. در خلال آموزش، شبکه الگوهای آموزشی خود را از طریق ورودیهایش دریافت میکند و به شکل دلخواه آنها را تحت طبقههای مختلفی دستهبندی میکند. هنگامی که شبکه یک ورودی را دریافت میکند پاسخی در خروجی ظاهر میکند که نشان دهنده طبقهای است که آن ورودی بدان تعلق دارد اگر طبقهای برای این ورودی یافت نشد آنگاه یک طبقه جدید تشکیل میشود. برای مثال شخصی را در نظر بگیریم که به او مجموعهای از اشیاء نشان داده میشود. از او در خواست میگردد که آنها را بر اساس یک یا چند ویژگی که متمایز کننده آنها از همدیگر است طبقهبندی کند. هنگامی که این کار را انجام داد در صورتیکه یک شیء به هیچ کدام از این طبقهها تعلق نداشت، آنگاه طبقه جدیدی به وجود میآید ]۲۵[.
اگر چه آموزش بدون نظارت، نیازی به معلم ندارد اما در عوض برای طبقهبندی الگوهای ورودی نیاز به معیارهایی دارد که معین کند که طبقهها بر چه اساس تشکیل میشوند. طبقهبندی میتواند بر اساس رنگ، شکل یا مواد تشکیل دهنده اشیاء یا هر چیز دیگری باشد. بنابراین اگر معیاری برای طبقه بندی وجود نداشت در مورد موفقیت یا عدم موفقیت دستهبندی نمیتوان نظر داد. در برخی از آزمایشها انتخاب معیار در طراحی شبکه عصبی در نظر گرفته میشود. یعنی به گونهای طراحی می شوند که بتوانند بر اساس نوع الگوهای ورودی مشخصه های معین را استخراج نمایند.
آموزش تقویت یافته
در آموزش تقویت یافته[۱۴۶] مانند روش آموزش با واسطه نیاز به یک معلم میباشد. اما در این روش معلم تعیین نمیکند که خروجی واقعی چه اندازه با خروجی مطلوب تفاوت دارد بلکه مشخص میکند که خروجی واقعی همان خروجی مطلوب است یا خیر، در حین آموزش، محرک ورودی به شبکه اعمال شده، پاسخ خروجی محاسبه میشود در این جا معلم، تعیین کننده خروجی هدف نمیباشد، بلکه نشانه قبول یا رد میباشد. نشانه قبول بیان میکند که خروجی واقعی همان خروجی مطلوب است و نشانه رد، بیانگر مغایرت این دو است، بنابراین سیگنال خطای تولیدی در این روش باینری است. اگر سیگنال خطا وضعیت عدم تطابق در خروجی (واقعی و مطلوب) را نشان دهد. آنگاه شبکه، پارامترهای خود را به طور مکرر تعدیل می نماید تا به خروجی مطلوب برسد ]۲۶[.
در این روش، نشان دهندهای وجود ندارد که معین کند پاسخ خروجی ما در جهت صحیح در حال حرکت است یا اینکه پاسخ خروجی به چه میزانی به پاسخ مطلوب نزدیک است. بنابراین در این شیوه، تنظیم پارامترهای شبکه نسبت به آموزش با نظارت متفاوت است.
آموزش رقابتی
آموزش رقابتی شکل دیگری از آموزش با نظارت است که به علت ساختار و عملکرد مشخص، این شیوه نسبت به روشهای دیگر متفاوت است. شبکههایی که از این شیوه آموزش استفاده میکنند در لایه خروجی از چند نرون تشکیل یافتهاند هنگامی که یک ورودی به شبکه اعمال میشود تمام نرونهای خروجی با یکدیگر برای رسیدن به پاسخ مطلوب رقابت میکنند تا یک نرون برنده شود و برای ورودیهای دیگر، نرون دیگری از لایه خروجی برنده میشود در این شیوه آموزش، هر نرون خروجی برای پاسخ به ورودیهای متفاوتی آموزش داده میشود. همچنین آموزش رقابتی با عنوان فرایند تشخیص تصادفی معرفی میگردد. برای آموزش یک شبکه عصبی مصنوعی که جزء یک سیستم بزرگ میباشد فرایند تشخیص تصادفی مناسب نیست و باید از شیوه آموزش تقویتیافته، استفاده شود معمولاً از این شیوه آموزش برای آموزش گروهی از مردم جهت کارهای خاص استفاده میشود به نحوی که هر فرد گروه برای یک کار مناسب، در زمان مناسب و در جای مناسب آموزش داده میشود ]۲۳[.
برنامه و آموزش شبکههای عصبی مصنوعی به روش پس انتشار خطا
توصیف ریاضی تعدیل وزنههای wij که در حین آموزش از شبکههای عصبی مصنوعی استنتاج میشود الگوریتم آموزش را تشکیل میدهد و حالت ماندگار مقادیر این وزنهها، نشان دهنده برنامه ذخیره شده در شبکه عصبی مصنوعی میباشد ]۲۳[.
منظور از معلم یا سرپرست، وجود یک مدار اضافه جهت مقایسه خروجی مطلوب و خروجی واقعی است البته خروجی مطلوب از قبل مشخص بوده و وقتی که الگوی محرک به ورودی شبکه اعمال می شود خروجی واقعی بدست آمده از شبکه عصبی مصنوعی و خروجی مطلوب به یک مقایسه کننده وارد میشود و شبکه براساس الگوریتم آموزش یک سیگنال خطا تولید میکند. سپس جهت کاهش خطا وزنههای wij تنظیم میشود. این روند به صورت تکراری برای رسیدن به حداقل درجه خطا ادامه خواهد داشت. برای پیادهسازی شیوه آموزش با نظارت از روشهای متفاوتی استفاده میشود که متداولترین آنها بر مبنای تعیین معلم یا سرپرست توسط ریزپردازندهها میباشد. با توجه به اینکه شیوه آموزش با نظارت یک فرایند ترتیبی همراه با تکرار میباشد لذا این روش بسیار مناسب است ]۲۳[.
=wij=[wi1,wi2…,win] بردار وزن برای ورودیهای نرون i
=xij=[xi1,xi2…,xin] بردار ورودی برای نرون i
=oi=f خروجی ازنرون i بعد از تابع تبدیل غیرخطی
Ti سیگنال معلم یا هدف که در حین آموزش، سیگنال خطا را تولید میکند.
=Ei=Ti-Oi خطای خروجی که در حین آموزش استفاده میشود.
بنابراین آموزش نرون i با معادله زیر بیان میگردد:
Wij(K+1)= Wij(K)+µEi(O(K),T(K).Xi(K)
دراین رابطه µ برابر مقدار مثبت و کوچکی است که سرعت آموزش (ضریب هوشی یا نرخ یادگیری) نامیده میشود بنابراین قانون آموزش میتواند به صورت زیر نشان داده میشود.
Wij(K+1)= Wij(K)+ correction term
در این جا k شماره پله تکرار می باشد. آموزش زمانی کامل خواهد شد که عبارت اصلاحی (Correction Term) برابر صفر شود.
قدرت تفکیک شبکههای عصبی مصنوعی
شبکههای عصبی مصنوعی به منظور تفکیک بین الگوهای ورودی، آموزش میبینند تا بتوانند به هر ورودی پاسخ مطلوب متناظر آن را در خروجی ارائه دهند. در کاربردهای متعددی شبکههای عصبی مصنوعی موظف هستند که علاوه بر تشخیص الگوی ورودی، طبقه یاگروهی را که الگو به آن تعلق دارد را معین کنند. تعداد الگوهایی را که یک شبکه عصبی مصنوعی میتواند از یکدیگر تشخیص بدهد قدرت تفکیک آن شبکه نامیده میشود. برتری شبکههای عصبی مصنوعی نسبت به روشهای متداول زمانی نمایان خواهد شد که تعداد الگوهای موجود برای طبقهبندی زیاد باشد. بنابراین ازاین ویژگی شبکههای عصبی مصنوعی در کاربرد شناسایی الگو استفاده میشود ]۲۶[.
شبکههای عصبی خودسازمانده
درشبکه ی خودسازمان ده، از روش یادگیری رقابتی برای آموزش استفاده می شود و مبتنی بر مشخصه های خاصی از مغز انسان توسعه یافته است. سلولها در مغز انسان در نواحی مختلف طوری سازمان دهی شده اند که در نواحی حسی مختلف، با نقشه های محاسباتی مرتب و معنی دار ارائه می شوند. برای نمونه، ورودیهای حسی لامسه، شنوائی و … با یک ترتیب هندسی معنی دار به نواحی مختلف مرتبط هستند.
در یک شبکه ی خود سازمان ده که با SOM[147] یا برخی مواقع به صورت SOFM(Self Organization Feature Map) نشان داده می شود، واحد های پردازش گر در گره های یک شبکه ی یک بعدی، دو بعدی یا بیشتر قرار داده می شوند. واحد ها در یک فرایند یادگیری رقابتی نسبت به الگوهای ورودی منظم می شوند. محل واحدهای تنظیم شده در شبکه به گونه ای نظم می یابد که برای ویژگیهای ورودی، یک دستگاه مختصات معنی دار روی شبکه ایجاد شود. لذا یک نقشه ی خود سازمان ده، یک نقشه ی توپوگرافیک از الگوهای ورودی را تشکیل می دهد که در آن، محل قرار گرفتن واحدها، متناظر ویژگیهای ذاتی الگوهای ورودی است ]۲۷[.
یادگیری رقابتی که در این قیبل شبکه ها بکار گرفته می شود بدین صورت است که در هر قدم یادگیری، واحدها برای فعال شدن با یکدیگر به رقابت می پردازند، در پایان یک مرحله رقابت تنها یک واحد برنده می شود، که وزنهای آن نسبت به وزنهای سایر واحدها به شکل متفاوتی تغییر داده می شود. این نوع از یادگیری را یادگیری بی نظارت (Unsupervised) می نامند. شبکه های خودسازمان ده به لحاظ ساختاری به چند دسته تقسیم می شوند که در ادامه با هر یک از آنها به صورت مختصری آشنا میشویم.
شبکه های خودسازمانده دارای وزن ثابت
در این دسته از شبکه ها وزن اتصالات بر اساس اهداف مورد نظر در طراحی شبکه در حین طراحی مشخص می شود و مقدار آنها تغییر نمی یابد، یا به عبارت دیگر نیاز به مرحله ی آموزش ندارند در ادامه جهت آشنایی بیشتر با این گونه از شبکه ها با چند نمونه ی عملی آنها آشنا می شویم ]۲۷[.
شبکه ی ماکس نت[۱۴۸]
شبکه فوق در سال ۱۹۸۷ توسط لیپمن[۱۴۹] معرفی گردید. هدف استفاده از آن تعیین بزرگترین ورودی به شبکه است یعنی در این شبکه پس از طی چند مرحله از طریق خروجی ها می توان ورودی بزرگتر را تشخیص داد، از این شبکه به عنوان زیر شبکه نیز می توان در ترکیب با شبکه های دیگر استفاده نمود ]۱[.
شکل ۲‑۱۷- مدل ساختاری شبکه ی MaxNet ]1[
ساختارشبکه: در این شبکه، n واحد ورودی دارای اتصالات کامل و متقارن با وزن های ثابت هستند. تابع فعالیت آنها به صورت ذیل می باشد:
الگوریتم کار شبکه:
۰- مقادیر اولیه را مشخص می کنیم، مقداری برای ε در فاصله ی اختیار می کنیم، مقادیر اولیه ی فعالیتها(yها) را برابر ورودی ها قرار می دهیم، وزن ها را به فرم ذیل تعیین می کنیم:
۱- تا زمانیکه شرط خاتمه ارضاء نشده است قدمهای ۲ الی ۴ را تکرار می کنیم
۲- بهنگام سازی مقادیر فعالیت
, j=1,…,m
۳- مقادیر فعالیت ذخیره شود:
, j=1,…,m yjold=yjnew
۴- اگر بیش از یک واحد مقدار فعالیت غیر صفر دارد الگوریتم ادامه می یابد، در غیر این صورت الگوریتم خاتمه می یابد.
شبکه ی کلاه مکزیکی[۱۵۰]
این شبکه در سال ۱۹۸۹ توسط کوهونن ارائه شد. هدف از بکار بردن این شبکه، افزایش تمایز بین ورودی ها می باشد، در این شبکه هر واحد با وزن های مثبت به همسایه های همکار و با وزن های منفی به همسایه های رقیب واقع در لایه خود وصل می شود ]۱[.
شکل ۲‑۱۸- مدل ساختاری شبکه ی کلاه مکزیکی که اتصالات فقط بری واحد i ام رسم شده ]۱[
ساختار شبکه :در شبکه ی فوق هر نرون i با R1 نرون دیگر که در هر دو طرف نرون i به صورت متقارن قرار دارند تشکیل همسایگی همکار می دهد و با R2-R1 نرون متقارن در دو طرف خود همسایگی رقیب تشکیل می دهد. R1 را همسایگی همکار و R2 را کل همسایگی متصل می نامند. برای نمونه در شکل فوق یک شبکه ی کلاه مکزیکی با R1=1 و R2=2 نشان داده شده است.
تخصیص وزن ها نیز بدین گونه است که در همسایگی همکار وزن ها مقادیر مثبت دارند ولی در همسایگی رقیب وزن ها مقادیر منفی دارا می باشند، در ضمن وزن های متقارن متصل به هر واحد i با هم مساوی هستند به عبارت دیگر وزن اتصال واحد i+1 و i-1 به واحد i با هم برابر هستند. در ذیل به جزئیات تخصیص وزن ها و توابع فعالیت اشاره می شود.
وزن اتصالات وارد به واحد i که به فرم wi+k,i می باشد بدین گونه است که:
الف) برای واحدهای همکار |k|≤R1 ، وزن های مثبت
ب) برای واحدهای رقیب R1≤|k|≤R2 ،وزن های منفی
تابع فعالیت هر واحد در زمان t به فرم ذیل است: