دانلود تحقیق مقدمه ای بر شبکه های عصبی مصنوعی و کاربرد های آن

Word 2 MB 31470 145
مشخص نشده مشخص نشده علوم پزشکی - پیراپزشکی
قیمت قدیم:۳۰,۰۰۰ تومان
قیمت: ۲۴,۸۰۰ تومان
دانلود فایل
  • بخشی از محتوا
  • وضعیت فهرست و منابع
  • امروزه با شکسته شدن پی در پی استقلال ، شاخه های مختلف علوم و بهره وری شاخه ای از شاخه ی دیگر و پیشبرد مسائل پیچیده خود، پیوستگی و لاینفک بودن تمامی شاخه های علوم را نمایان تر می سازد که سرمنشأ تمامی آنها از یک حقیقت نشأت گرفته و آن ذات باری تعالی است.اولین تلاش ها به منظور ارائه ی یک مدل ریاضی برای سیستم عصبی انسان در دهه 40 توسط Mcculloch , pitts انجام شد ، که حاصل آن یک نورون ساده ی تک لایه ویک روش برای آموزش آن بود .

    در ادامه ی این کار Hebb نتایج آزمایشات پاولف را در مورد شرطی شدن ،گسترش داد و یک روش برای یادگیری ارائه کرد .

    در سال 1958 ،Rossonblatt شبکه ی پرسپترون را ارائه کرد .

    بعد از مدتی اثبات شد شبکه ی عصبی پرسپترون تک لایه نمی تواند تابع ساده ای مانند EX-OR را بیاموزد .بنابراین تقریباً تا دهه ی 80 تلا ش ها برای گسترش شبکه ی عصبی بسیار کم بود.

    سپس در طی یک مقاله اثبات شد که شبکه ی عصبی پرسپترون چند لایه می تواند به عنوان یک تخمین گر جهانی مطرح شود .

    بدین معنی که این شبکه قابلیت دارد هر تابع غیرخطی را با دقت دلخواه مدل سازی کند .

    از آن به بعد شبکه های عصبی مصنوعی گسترش یافتند و در زمینه های بسیاری از آنها استفاده شد .

    سیستم شبکه ی عصبی مصنوعی از مغز وسیستم عصبی انسان الهام گرفته شده و مانند مغز انسان از تعداد زیادی نورون تشکیل شده است .

    این شبکه ها مانند مغز انسان دارای قابلیت یادگیری هستندکه از مزیت های عمده ی این سیستم هاست در مواردی که نتوانیم یک الگوریتم حل به صورت فرمولی بیابیم یا تعداد زیادی مثال از ورودی و خروجی سیستم موردنظرمان در اختیار داشته باشیم و بخواهیم برای آن سیستم ، مدل ارائه کنیم یا اینکه یک ساختار از اطلاعات موجود بدست آوریم ، استفاده از شبکه های عصبی مصنوعی سودمند است .

    تاکنون برای شبکه های عصبی توپولوژی های مختلف همراه با کاربردهای متنوع ارائه شده است که طیف وسیعی از موضوعات را پوشش می دهد .

    الهام از نورون واقعی : سیستم عصبی انسان و مغز وی متشکل از ترکیب و به هم پیوستن تعداد زیادی سلول به نام نورون می باشد .

    تعداد نورون های مغز انسان به طور متوسط حدود 100 تریلیون می باشد .

    یک نورون دارای تعداد زیادی ورودی و یک خروجی است .

    خروجی می تواند دو حالت فعال یا غیرفعال را اختیار کند .

    در یک نورون ورودی ها تعیین می کنند که خروجی نرون فعال یا غیرفعال باشد .

    یک نرون از یک حجم سلولی ، تعداد زیادی « دنوریت » به عنوان ورودی و یک « اکسون » به عنوان خروجی تشکیل شده است.

    به محل اتصال اکسون یک سلول به دنوریت های یک سلول دیگر نیز «سیناپس » می گویند که نقش بسزایی در سیستم عصبی ایفا می کند .

    سیناپس می تواند در طول دوره ی یادگیری نسبت به سیگنال های ورودی تغییر کند .در این قسمت به قانون یادگیری «هبی» اشاره می کنیم .

    این قانون به طور ساده به این صورت می باشد که اگر ورودی های یک نرون به طور مکرر منجر به فعال شدن خروجی شود ، یک تغییر متابولیک در سیناپس اتفاق می افتد که در طی آن مقاومت سیناپس نسبت به آن ورودی خاص کاهش می یابد.

    مدل ریاضی نرون : یک نرون مجموع وزن های ورودی را حساب کرده و براساس یک تابع فعالیت ( که در حالت ساده می تواند یک Threshold باشد ) خروجی را تعیین می کند .

    اگر این مجموع از ترشلد بیشتر باشد خروجی نرون « یک » می شود در غیر این صورت خروجی نرون منفی یک ( 1- ) خواهد شد .

    به عنوان مثال یک شبکه عصبی ساده به نام perceptron را در نظر می گیریم این شبکه در شکل زیر نشان داده شده است در این شبکه چند ورودی وجود دارد که یکی از آنها مربوط به بایاس است .

    تابع فعالیت نورون نیز به صورت یک ترشلد خطی می باشد و شبکه دارای یک خروجی است .

    در این شبکه سیناپس ها به صورت وزن های اتصالات در نظر گرفته شده است .

    به عنوان مثال فرض کنید که می خواهیم یک OR منطقی را به وسیله ی این شبکه مدل کنیم.

    هدف از الگوریتم یادگیری ، بدست آوردن وزن های مناسب برای حل مسئله ی مورد نظر ما می باشد .

    قانون یادگیری شبکه به صورت زیر است که بیان کننده ی تغییرات وزن ، نرخ سرعت یادگیری و یک عدد ثابت می باشد .D بیان کننده ی خروجی مطلوب است که در الگوهای آموزشی وجود دارد Y بیان کننده ی خروجی به دست آمده از شبکه است و بیان کننده ورودی است .یادگیری همان طور که قبلاً اشاره شد ، از شبکه های عصبی مصنوعی برای مدل کردن سیستم هایی که غیرخطی یا جعبه سیاه هستند و ما از دینامیک داخلی سیستم خبری نداریم و فقط یک سری (ورودی – خروجی ) از سیستم داریم ، می توان استفاده کرد .

    بدین ترتیب که ابتدا یک توپولوژی مناسب از شبکه در نظر می گیریم، تعداد و نحوه ی اتصالات نورون ها را مشخص می کنیم و یک سری وزن های ابتدایی برای اتصالات در نظر می گیریم .

    در مرحله ی آموزش، هدف این است که با اعمال مجموعه «ورودی – خروجی » های سیستم مورد نظر وزن های اتصالات را طوری تنظیم کنیم که بتوانیم با دادن ورودی هایی غیر از ورودی های مجموعه ی آموزشی مان خروجی متناسب با سیستم مورد نظر بدست بیاوریم .

    به بیان دیگر بتوانیم سیستم رامدل کنیم.

    در شکل توپولوژی یک شبکه عصبی که دارای لایه های مختلفی است ، این شبکه ، ازلایه های مختلفی تشکیل شده که بیان کننده ی نحوه ی اتصال نورون ها به یکدیگر می باشد .

    لایه ی ورودی شامل نورون نبوده و فقط بیان کننده ی ورودی هاست .

    به نورون هایی که مستقیم ، به خروجی متصل می شوند، لایه ی خروجی گفته می شود .بقیه لایه ها - غیر از ورودی و خروجی - لایه های پنهان نام دارند .

    به طور کلی فرآیند یادگیری را می توان به 3 دسته تقسیم کرد.

    1- یادگیری نظارت شده Supervised Learning در این روش همان طور که قبلاً اشاره شد یک مجموعه ی آموزشی در نظر گرفته می شود و یادگیرنده بر اساس یک ورودی عمل کرده و یک خروجی به دست می آورد .

    سپس این خروجی توسط یک معلم که می تواند خروجی مورد نظر ما باشد مورد ارزیابی قرار می گیرد و براساس اختلافی که با خروجی مطلوب دارد یک سری تغییرات در عملکرد یادگیرنده به وجود می آید .

    این تغییرات می تواند، وزن های اتصالات باشد .

    یک مثال برای این روش الگوریتم « پس انتشار خطا »Back propagation error می باشد که در شبکه های پرسپترون برای آموزش ، مورد استفاده قرار می گیرد.

    2- یادگیری نظارت نشده unsupervised Learning در این روش، حین فرآیند یادگیری از مجموعه های آموزشی استفاده نمی شود و به اطلاعات در مورد خروجی مطلوب نیز نیاز ندارد .

    در این روش معلمی وجود ندارد .

    و معمولاً برای دسته بندی وفشرده سازی اطلاعات استفاده می شود .

    یک مثال برای این روش الگوریتم kohonen می باشد .

    3- یادگیری تقویتی Rein forcement learning در این روش یک معلم به عنوان یاد دهنده وجود ندارد و خود یادگیرنده با سعی و خطا آموزش می بیند .

    در این روش یک استراتژی اولیه در نظر گرفته می شود .

    سپس این سیستم بر اساس همان رویه عمل می کند و یک پاسخ از محیطی که در آن فعالیت می کند، دریافت می کند.

    سپس بررسی می شود که آیا این پاسخ ، مناسب بوده یا خیر و با توجه به آن ، یادگیرنده یا مجازات می شود یا پاداش می گیرد .

    اگر مجازات شود عملی را که منجر به این مجازات شده در دفعات بعدی کمتر تکرار می شود و اگر پاداش بگیرد سعی می کند آن عملی که منجر به پاداش شده است ، بیشتر انجام دهد.

    یک دیدگاه دیگر نسبت به یادگیری می تواند به تقسیم بندی زیر منجر شود : 1- یادگیری Off Line : در این روش وزن ها طی زمانی که سیستم در حال اجرای کار اصلی خودش می باشد ، ثابت هستند و تغییرات وزن ها درطول یادگیری صورت می پذیرد .

    2- یادگیری On Line : در این روش وزن ها در دوره ی عملکرد واقعی سیستم نیز تغییر می کنند و دوره ی یادگیری و عملکرد سیستم از یکدیگر جدا نیستند .

    بدین ترتیب این سیستم دارای قابلیت بیشتری برای مقابله با تغییرات دینامیک محیط است .

    اما منجر به شبکه هایی با ساختار پیچیده تر می شود .

    چند نکته : ابتدا این که تعداد بهینه ی نورون های لایه های مخفی همچنین تعداد لایه های مخفی چقدر است؟

    باید گفت به طور کلی برای این مسئله ، یک جواب تئوریک وجود ندارد بلکه به صورت تجربی و با توجه به کاربرد آن می توان به یک ساختار مناسب رسید .

    البته می توان از روش های بهینه سازی مانند « ژنتیک الگوریتم » برای حل این مسئله استفاده کرد .

    مسئله ی مهم دیگر بحث Overtraining می باشد که از اهمیت زیادی برخوردار است .

    این مورد بیان می کند که اگر تعداد داده های آموزش بسیار زیاد باشد شبکه بیشتر به عنوان حافظه عمل خواهد کرد و نمی تواند پاسخ مناسبی برای مدل سیستم ما باشد .

    از سوی دیگر اگر داده های آموزشی ما در تمام فضای مسئله پراکنده نباشد یا تعداد آنها کافی نباشد، شاید شبکه ی ما همگرا نشود .

    کاربردها : شبکه های عصبی در موارد زیر دارای کارایی زیادی می باشند : پیداکردن الگوهای پیچیده از میان یک سری اطلاعات درمسایلی که با اطلاعات غیر دقیق سروکار داریم.

    در مسایلی که با اطلاعات نویزی سروکار داریم .

    مانند 1-prediction 2-Classification 3-Dataassociation 4-Dataconceptualizefion 5-filtering 6- planning چند کاربرد عملی و مفید آن که تاکنون بر روی آنها فعالیت زیادی انجام شده عبارتند از : 1- پیشگویی prediction ) از اطلاعات بدست آمده در گذشته( - پیش بینی وضعیت آب و هوا - پیش بینی وضعیت سهام در بورس - پیش بینی سری های زمانی 2- کلاسه بندی Classification - پردازش تصویر - دسته بندی اهداف در رادارها 3- تشخیص Recognition - تشخیص نوع بمب درصنایع نظامی - تشخیص حرو ف - تشخیص امضاء - تشخیص چهره 4- دیگر کاربردهای آن به صورت کلی شامل موارد زیر است : Regularitydetection - speechanalysis - optimizationproblems - Robotstearing - Processing of inaccurate or in complteinputs - Stock market forecasting simulation به عنوان مثال کاربری می توان تخمین موقعیت کاربر مخابرات سیار در محیط شهری را بیان کرد .

    برای این کار می توان مکان کاربر را با تلفیق زاویه و زمان دریافت ، سیگنال را بهوسیله ی شبکه های پرسپترون چند لایه و RBF تخمین زد .

    بدین منظور دو روش مختلف در نظر گرفته شده است .

    در روش اول تنها از یک شبکه ی عصبی استفاده می شود .

    و در روش دوم که سلسله مراتبی نامیده می شود عمل تخمین توسط بیش از یک شبکه ی عصبی صورت می پذیرد.

    به این ترتیب که نخست موقعیت کاربر به صورت تقریبی توسط شبکه ی لایه ی اول انجام می شود و سپس با استفاده از شبکه عصبی لایه ی دوم که برای ناحیه ی کوچکتری آموزش دیده است ، تخمین بهتری از موقعیت کاربر بدست می آید با افزایش تعداد لایه ها می توان به دقت بهتری دست یافت برای انتشار مسیر غیر خط دیده (NLOS ) امواج ، از دو روش استفاده شده است .

    در روش اول ( محیط غیر شهری ) دایره ای به مرکز فرستنده و شعاع مشخص به عنوان ناحیه ی پراکندگی در نظر گرفته شده که امواج در این ناحیه پراکنده شده وبه گیرنده می رسند.

    در روش دوم ، از محیط های شهری که دارای ساختار مشخصی هستند ، استفاده شده است .

    برای شبیه سازی انتشار امواج در محیط های شهری ، نرم افزاری نوشته شده و پرتوهایی که از فرستنده ساطع می شوند را به صورت دو بعدی دنبال می کند .

    این عمل تا هنگامی که توان پرتو از یک مقدار آستانه کمتر نشده و یا پرتو از محیط مورد نظر خارج نگردیده ادامه می یابد نتایج شبیه سازی نشان می دهد که در محیط غیر شهری با شعاع ناحیه ی پراکندگی 300 متر و نسبت سیگنال به نویز بی نهایت ، در صورت استفاده از یک ایستگاه پایه وپرسپترون با ساختار سلسله مراتبی در66 % موارد کاربر با خطای کمتر از 125 متر تخمین زده می شود .

    نتایج مشابه برای محیط شهری نشان می دهد با استفاده از پنج لایه ، احتمال خطای کمتر از 125 متر در تخمین موقعیت کاربر به 86% افزایش می یابد .

    در صورت استفاده از دو ایستگاه پایه ی این احتمال به 91% می رسد .

    نتایج حاصل از شبکه عصبی RBF نشان می دهد که دقت های مشابهی توسط این شبکه بدست می آید ضمن آنکه آموزش شبکه اخیر حدود پنجاه برابرسریع تر از شبکه پرسپترون است .

    این نتایج نشان می دهد دقت مورد نظر استاندارد E-911 باروش های پیشنهادی به دست می آید.{5} تاریخچه : شبکه‌های عصبی دهها سال است که جلب توجه می‌کنند وتاکنون راه حلهایی برای استفاده از هوش بشری ارائه شده است.

    اولین نرون مصنوعی درسال 1943 توسط نروفیزیولوژیست وارن‌مک‌کالوک و منطق دان والتر‌پیتز تولید شد.در دهه 60 به دلایلی که خارج از بحث این مقاله است مردم به‌سوی شبکه‌های عصبی متمایل شدند و تنها در دهه 80 دانشمندان توانایی‌های واقعی شبکه‌های عصبی را دیدند .

    شبکه عصبی چیست؟

    شبکه های عصبی مصنوعی (Artificial Neural Network) الگویی برای پردازش اطلاعات می باشند که با تقلید از شبکه های عصبی بیولوژیکی مثل مغز انسان ساخته شده اند.عنصر کلیدی این الگو ساختار جدید سیستم پردازش اطلاعات آن می باشد و از تعداد زیادی عناصر (نرون) با ارتباطات قوی داخلی که هماهنگ با هم برای حل مسائل مخصوص کار می کنند تشکیل شده اند.

    شبکه های عصبی مصنوعی با پردازش روی داده های تجربی، دانش یا قانون نهفته در ورای داده ها را به ساختار شبکه منتقل می کند که به این عمل یادگیری می گویند.

    اصولاً توانایی یادگیری مهمترین ویژگی یک سیستم هوشمند است.

    سیستمی که بتواند یاد بگیرد منعطف تر است وساده تر برنامه ریزی میشود، بنابراین بهتر میتواند در مورد مسایل و معادلات جدید پاسخگو باشد.

    انسانها از زمانهای بسیار دور سعی بر آن داشتند که بیوفیزیولوژی مغز را دریابند چون همواره مسئله هوشمندی انسان و قابلیت یادگیری ،تعمیم،خلاقیت،انعطاف پذیری و پردازش موازی در مغز برای بشر جالب بوده و بکارگیری این قابلیتها در ماشینها بسیار مطلوب می نمود.روشهای الگوریتمیک برای پیاده سازی این خصایص در ماشینها مناسب نمی باشند در نتیجه می بایست روشها مبتنی بر همان مدلهای بیولوژیکی باشد.ANN درست مثل انسانها با استفاده از مثالها آموزش می بیند ; همانطور که یک بچه با دیدن انواع مختلف از یک حیوان قادر به تشخیص آن می باشد.{6} 2- شبکه‌های عصبی مصنوعی: 2-1- شبکه‌های عصبی مصنوعی: شبکه‌های عصبی شبیه به مغز انسان اطلاعاتی را پردازش می‌کنند.

    شبکه‌ از تعداد زیادی سلولهای عصبی(Neuron ها) تشکیل شده با پردازشی بسیار بزرگ و به‌هم پیوسته که در حل موازی مسائل ویژه مشغول به کارند.یادگیری شبکه‌های عصبی از طریق مثالهاست.

    آنها برای انجام یک کار خاص برنامه‌ریزی نشده‌اند.

    مثالها باید با دقت بسیار بالایی انتخاب شوند والا زمان مفید هدر خواهد رفت و یا حتی ممکن است شبکه به طور ناقص دایر شود و در اینجا راهی برای فهمیدن اینکه سیستم معیوب است یا خیر وجود ندارد مگر اینکه خطایی رخ دهد.شبکه‌های عصبی مصنوعی یک ترکیبی از مجموعه نرون‌هاست و البته نرونهای مصنوعی‌ای که بسیار شبیه به نرونهای زیستی کار می‌کنند.

    و بدین گونه است که ورودیهای زیادی با وزنهای مختلف می‌گیرد و یک خروجی که به ورودی وابسته است تولید می‌کند.

    نرونهای زیستی می‌توانند در حال برانگیزش باشند یا نباشند.

    (وقتی یک نرون برانگیخته می‌شود ضربه علائم خروجی آن مقداری کمتر از 100 هرتز است) شبکه‌های عصبی استفاده وسیعی در شناسایی الگوها دارند زیرا از خودشان قابلیت آن را دارند که بطور عمومی به ورودی‌های غیر منتظره نیز پاسخ دهند.

    در طول ساخت نرونها می‌آموزند که چگونه الگوهای ویژه گوناگون را تشخیص دهند.

    اگر الگویی پذیرفته شود در حالی که در طول اجرا ورودی با خروجی مرتبط نباشد، نرون از مجموعه‌ای از الگوهایی که سابقا آموخته خروجیی را که شبیه به الگو می‌باشد وکمترین تفاوت را با ورودی دارد انتخاب می‌کند.

    این روال عموما فراخوانی می‌شود.

    مثال: وقتی که ورودی نرون 1111 باشد چهار ورودی بر حسب برانگیزش مرتب شده‌اند و وقتی ورودی‌های 0000 را داریم نرون برای برانگیزش مرتب نیست.

    قاعده عمومی این است که نرونها مایلند برانگیخته شوند وقتی که ورودی‌ها 0111 ، 1011 ، 1101 ، 1110 یا 1111 باشند و در صورتی که ورودی آنها 1000 ، 0001 ، 0010 ، 0100 یا 0000 باشند مایل به برانگیخته شدن نیستند.شناسایی الگوهای پیچیده سطح بالا می‌تواند به وسیله شبکه‌ای از نرونها انجام شود و بدین ترتیب نام آن را شبکه‌های عصبی مصنوعی گذاشتند.

    اکنون شبکه‌های عصبی کاربردهای زیادی دارند(درمنطق وکلام و شناسایی عکسها)البته شناسایی الگوهامی‌تواند به‌طور موفقیت آمیز بر روی کامپیوترهای عمومی انجام شود.

    این شبکه‌های عمومی که برای شناسایی الگوها استفاده می‌شوندFeed-Forward نامیده می‌شدند زیرا آنها یک بازخورد (Feed-Back) داشتند.

    آنها به‌طور ساده ورودی‌ها را با خروجی‌ها می‌آمیختند.

    اما شناسایی الگوها به تدریج کاملتر شد به‌طوریکه بر روی کامپیوترهای عمومی با سیستم خاص خودشان به‌سختی انجام می‌شد پس برای شناسایی الگوها شبکه‌های Feed-Forward کافی نبودند.در شبکه‌های عصبی خروجی هر نرون به ورودی نرونهای مجاورش متصل شده است.

    شبکه‌های عصبی نمی‌توانند معجزه کنند اما اگر به درستی استفاده شوند نتایج شگفت‌انگیزی خواهند داشت .

    2-2- مشخصات مسائل در خور شبکه‌های عصبی مصنوعی Network) Artificial Neural (ANN تقلید از ساختارهای محاسباتی سیستم زیستی ممکن است ایده اصلی نمونه‌های محاسباتی برای ساخت کلاسهایی از مسائل باشد.

    از جمله این مسائل می‌توان از مسائل مشکل NP که شامل مسائل طبقه‌بندی شده، زمانبندی‌شده، جستجو وغیره نام برد، کلاس مسائل شناسایی الگوها، افراد و موضوعات مشخص را در دیدار و تماس با آنها می‌شناسد و کلاس مربوط به داده‌های ناقص، اشتباه، متناقض، فازی و احتمالی.

    این مسائل توسط همه یا برخی از موارد زیر توصیف می‌شوند : یک فضای مسئله با بعد بزرگ، پیچیده، ناشناخته با اثرات متقابل پیچیده ریاضی‌وار بین متغییرها و یک فضای راه‌حل که ممکن است خالی باشد(شامل یک راه‌حل یکتا یا بیشتر ، شامل تعدادی از راه‌حلهای مفید)به نظر می‌رسد ANN ها راه‌حلهایی برای مسائلی که با ورودی‌های حسی بیشتر درگیرند ارائه می‌دهد(صحبت‌کردن، دیدن، شناسایی دستخط و…).

    2-3- کاربردهای شبکه‌های عصبی مصنوعی ANN : می‌توان موارد زیر را از کاربردهای شبکه‌های عصبی مصنوعی ذکر کرد : پردازش تصویر و دید : ( Image processing and computer vision ) پردازش علائم ( Signal processing ): شامل ریخت‌شناسی و تجزیه و تحلیل علائم مربوط به زمین‌لرزه‌ها و… شناسایی الگوها( Pattern recognition ): شامل شناسایی چهره، اثر انگشت، تشخیص نوع صدا و نوع صحبت کردن، دستخط و … پزشکی( Medicine ): شامل تجزیه و تحلیل و تشخیص علائم دستگاه ضربان‌نگار قلب (الکتروکاردیوگرافیک)، تشخیص امراض گوناگون و … سیستم‌های نظامی( Military systems ): شامل ردیابی مین‌های زیردریایی، دسته‌بندی صداهای نابه‌هنجار و مخل در رادارها و شناسایی گوینده رزمی.

    سیستم‌های تجاری( Financial systems ): شامل تجزیه و تحلیل انبار مغازه‌ها، ارزیابی واقعی املاک و … برنامه‌ریزی، کنترل و جستجو( Planning, control, and search ): شامل اجرای موازی مسائل و کنترل رباتها.

    هوش مصنوعی( Artificial intelligence ): شامل برخی سیستم‌های طبی و اجرای سیستم‌های خبره.

    سیستم‌های قدرت( Power systems ): شامل برآورد وضعیت سیستم، ردیابی سریع و دسته‌بندی ردیابی، ردیابی خطا و ترمیم آن، پیش‌بینی و برآورد تخمین امنیت.

    انواع یادگیری برای شبکه های عصبی: 1.

    یادگیری با ناظر: در یادگیری با ناظر به قانون یاد گیری مجموعه ای از زوجهای داده ها به نام داده های یادگیری (Pi,Ti)i={1 … l } می دهند که در آن Pi ورودی به شبکه و Ti خروجی مطلوب شبکه برای ورودی Pi است.

    پس از اعمال ورودی Pi به شبکه عصبی در خروجی شبکه ai با Ti مقایسه شده و سپس خطای یادگیری محاسبه و از آن در جهت تنظیم پارامترهای شبکه استفاده می شود به گونه ای که اگر دفعه بعد به شبکه همان ورودی Pi اعمال شود خروجی شبکه به Ti نزدیکتر می گردد با توجه به این نکته که معلم سیستمی است که بر محیط وقوف دارد ( مثلا می داند که برای ورودی Pi خروجی مطلوب Ti است ).توجه داریم که محیط برای شبکه عصبی مجهول است .

    در لحظه k بردار ورودی (Pik) با تابع توضیع احتمال معینی که برای شبکه عصبی نا معلوماست انتخاب و بطور همزمان به شبکه عصبی و معلم اعمال می شود .

    جواب مطلوب (Tik) نیز توسط معلم به شبکه عصبی داده می شود .

    در حقیقت پاسخ مطلوب پاسخ بهینه ای است که شبکه عصبی برای ورودی مفروض باید به آن برسد .

    پارامترهای شبکه عصبی توسط دو سیگنال ورودی و خطا تنظیم می شود.به این صورت که پس از چند تکرار الگوریتم یادگیری که عموما توسط معادله تفاضلی بیان می شودبه پارامترهایی در فضای پارامترهای شبکه همگرا می شوند که برای آنها خطای یادگیری بسیار کوچک است و عملا شبکه عصبی شبکه عصبی معادل معلم می شود .

    یا به عبارتی دیگر اطلاعات مربوط به محیط (نگاشت بین TiوPi )که برای معلم روشن است به شبکه عصبی منتقل می شود و پس از این مرحله عملا می توان بجای معلم از شبکه عصبی استفاده کرد تا یادگیری تکمیل شود .

    2.

    یادگیری تشدیدی: یک اشکال یادگیری با ناظر این است که شبکه عصبی ممکن است بدون معلم نتواند مواضع جدیدی را که توسط مجموعه داده های جدید تجربی پوشانده نشده است یاد بگیرد .

    یادگیری از نوع تشدیدی این محدودیت را برطرف می کند .

    این نوع یادگیری بطور on-line صورت می گیرد در حالی که یادگیری با ناظر را به دو صورت on-line & off-line می توان انجام داد.

    در حالت off-line می توان از یک سیستم محاسب با در اختیار داشتن داده های یادگیری استفاده کرد و طراحی شبکه عصبی را به پایان رساند .

    پس از مرحله طراحی و یادگیری شبکه عصبی به عنوان یک سیستم استاتیکی عمل می کند .

    اما در یادگیری on-line شبکه عصبی همراه با خود سیستم یادگیر در حال انجام کار است و از این رو مثل یک سیستم دینامیکی عمل می کند .

    یادگیری از نوع تشدیدی یک یادگیری on-line از یک نگاشت ورودی-خروجی است .

    این کار از طریق یک پروسه سعی و خطا به صورتی انجام می پذیرد که یک شاخص اجرایی موسوم به سیگنال تشدید ماکزیمم شود و بنابر این الگوریتم نوعی از یادگیری با ناظر است که در آن به جای فراهم نمودن جواب واقعی ، به شبکه عددی که نشانگر میزان عملکرد شبکه است ارایه می شود.

    این بدین معنی است که اگر شبکه عصبی پارامترهایش را به گونه ای تغییر داد که منجر به یک حالت مساعد شد آنگاه تمایل سیستم یادگیر جهت تولید آن عمل خاص تقویت یا تشدید می شود .

    در غیر این صورت تمایل شبکه عصبی جهت تولید آن عمل خاص تضعیف می شود .

    یادگیری تقویتی مثل یادگیری با ناظر نیست و این الگوریتم بیشتر برای سیستمهای کنترلی کاربرد دارد .

    3.

    یادگیری بدون ناظر: در یادگیری بدون ناظر یا یادگیری خود سامانده پارامترهای شبکه عصبی تنها توسط پاسخ سیستم اصلاح و تنظیم می شوند .

    به عبارتی تنها اطلاعات دریافتی از محیط به شبکه را برداغرهای ورودی تشکیل می دهند.

    و در مقایسه با مورد بالا (یادگیری با ناظر) بردار جواب مطلوب به شبکه اعمال نمی شود .

    به عبارتی به شبکه عصبی هیچ نمونه ای از تابعی که قرار است بیاموزد داده نمی شود .

    در عمل می بینیم که یادگیری با ناظر در مورد شبکه هایی که از تعداد زیادی لایه های نرونی تشکیل شده باشند بسیار کند عمل می کند و در این گونه موارد تلفیق یادگیری با ناظر و بدون ناظر پیشنهاد می گردد .

    2-4- زمینه‌ای درموردperceptron Perceptron های ساده: یک خانواده ساده از شبکه‌های عصبی مدل perceptron می‌باشد.

    در یک دسته‌بندی تک‌خروجی، تعداد n ورودی و یک خروجی دارد .

    با هر ورودی یک ضریب وزنی Wi و با هر خروجی یک مقدار آستانه q مرتبط است.

    Perceptron به گونه زیر عمل می‌کند: ورودی‌های Perceptron یک بردار ورودی از n مقدار حقیقی است.

    Perceptron مجموع وزنها را محاسبه می‌کند a= ه Wi.Xi.

    این مقدار با مقدار آستانه q مقایسه می‌شود.

    اگر این مقدار ازمقدار آستانه کوچکتر باشد خروجی 0 است و در غیر این صورت 1 است.

    قدرت Perceptron: به وسیله تنظیم اعداد ورودی، وزن آنها و مقدار آستانه می‌توان یک Perceptron برای انجام نسبتا خوب محاسبات گوناگون طراحی کرد.

    برای مثال توابع منطقی بولین مانند AND ، OR و NOT را می‌توان به وسیله Perceptron طراحی کرد و هر مدار منطقی دیگر را به وسیله گیتهای AND و NOT یا AND و OR طراحی کرد.

    دسته‌های زیادی از Perceptronها ممکن است خروجی‌های دسته‌های دیگر را به عنوان ورودی خود درخواست کنند.به عنوان مثالی ازPerceptron ها می‌توان یک تشخیص دهنده قالب متن را نام برد.

    حرفA درآرایه‌ای 5*5 به‌رمز درمی‌آید(encode می‌شود).

    این متن(حرف) به‌وسیله یک Perceptron با 25 ورودی تشخیص داده می‌شود که در آن وزنها مقادیری برابر با مقادیر عددی داخل آرایه را می‌گیرند و مقدار آســتانه برابر است با: e-25 =q که در آن 0 خروجی Perceptron 1 است اگر و فقط اگر ورودی آن از 1 و 1- هایی باشد که عینا در آرایه آمده است.

    دنباله‌های Perceptron: یکی از خصوصیات جالب Perception این است که آنها می‌توانند به وسیله مثالهای مثبت و منفی ( صحیح و اشتباه) برای انجام توابع دسته‌بندی شده مخصوص بارها مرتب شوند.

    حال به یک مثال ساده از Perceptron با دو ورودیX1 وX2 ، که تشخیص می‌دهد که کدام‌یک از دو کلاس، عناصر متعلق به خودش را دارد.

    ما فرض می‌کنیم که این Perceptron دو طرح از کارکترهای چاپ شده از یک متن را بررسی کند، خروجی 1 است اگر و فقط اگر کاراکتر رقم 8 باشد.

    فرض کنیم که X1 بیانگر تعداد حفره‌های کاراکتر است و X2 درجه راستی سمت چپ کاراکتر را نشان می‌دهد.

    ما با 4 ورودی .اگر ما perceptron را در اول کار با وزنهایی برابر 0 و مقدار آستانه را برابر 10 مقداردهی کنیم یک رده‌بندی از همه مثالهای منفی انجام داده‌ایم.

    با قرار دادن رده‌بندی‌های نادرست از 8 ، مقادیر ورودی از مثال 8 با بعضی فاکتورها مثل d جمع می‌شوند و تولیدات جدید با وزنهای متناظر با ایجاد می‌شوند.

    فرض کنیم 1= d پس وزن ورودی‌ها از 0 به 1 و 2 رشد پیدا می‌کند.

    حال در اینجا 5 = a به دست می‌آید که هنوز از مقدار آستانه 10 کوچکتر است.

    مثال هنوز به رده‌بندی صحیحی نرسیده است واین قدم دنباله باید تکرار شود.

    بعد از دو قدم وزنها برابر 2 و 4 می‌شوند که مقدار 10 = a را نتیجه می‌دهد که برابر مقدار آستانه است و مثال مثبت از 8 به طور صحیح دسته‌بندی شده است.

    از آنجا که ضرایب وزنی تغییر کرده بودند لازم است که در همه مثالها رده‌بندی‌ها بازنشان ( Reset ) شوند.

    این را می‌توان به سادگی دید که مثال B رده‌بندی نادرستی است زیرا با وزنهای 2 و 4 داریم 24 = a ولی این حرف مورد نظر ما نیست، چون این مرحله را پیش رفته‌ایم لازم است که d.1 از W1 و d.2 از W2 کم شود تا رده‌بندی نادرستی از B ثابت شود.

    به هر حال یک رده‌بندی از 8 را دوباره بیرون می‌دهد.بعدها موقع بروز خطا ما وزنها را برای درست کردن خطاهای رده‌بندی اصلاح می‌کنیم.

    اگر مثالها دارای خاصیت صحیحی باشند وزنها در مجموعه‌ای از مقادیری که به درستی روی هر ورودی کار می‌کنند قرار می‌گیرند.

    قضیه بنیادی دنباله‌ها: یک خصوصیت قابل توجه perceptron این است که آنها می‌توانند دنباله‌ای از رده ‌بندی صحیح مثالهای مثبت ومنفی باشند.فرض کنیم: X = X+ ب X- X+ : مجموعه‌‌ای از مثالهای مثبت X- : مجموعه‌‌ای از مثالهای منفی گوییم که رشته بی‌کران S x= X1 , X2 , …, Xk ,… یک رشته متوالی(ترتیبی) برای X است در صورتی که هر Xi یک مثال در X است و هر عنصر از X اغلب به طور نامحدود در Sx رخ می‌دهد(نمایان می‌شود).

    فرض کنیم Wk ضریب وزنی در سطح k دنباله باشد.

    وزن اولیه می‌تواند به صورت قراردادی باشد (برای مثال W1=0 ).

    حال رشته استاندارد حاصله، وزنها را به صورت زیر ارتقا می‌دهد: بسته به استرادژی مورد نظر ممکن است مقادیر C k همگی یکسان باشند یا ممکن است با k تغییر کنند.

    قضیه 1): باشد و یک بردار حل وزنها برای X وجود داشته باشد, در این صورت رویه رشته استاندارد باید بعد از یک تعداد فرض کنیم یک مجموعه از رشته نمونه X و هر رشته ترتیبی برای آن داریم, اگر Ck یک ثابت مثبت مراحل مشخص یک راه‌حل پیدا کند به طوری که اگر برای بعضی k0 ها داشته باشیم: WK0 = WK0+1 = WK0+2 = … که WK0 یک راه‌حل برای X است.

    {7} الگوریتم ژنتیک : الگوریتم ژنتیک که بعنوان یکی از روشهای تصادفی بهینه یابی شناخته شده, توسط جان هالند در سال 1967 ابداع شده است.

    بعدها این روش با تلاشهای گلدبرگ 1989, مکان خویش را یافته و امروزه نیز بواسطه توانایی های خویش , جای مناسبی در میان دیگر روشها دارد.

    روال بهینه یابی در الگوریتم ژنتیک براساس یک روند تصادفی- هدایت شده استوار می باشد.

    این روش , بر مبنای نظریه تکامل تدریجی و ایده های بنیادین داروین پایه گذاری شده است.در این روش , ابتدا برای تعدادی ثابت که جمعیت نامیده می شود مجموعه ای از پارامترهای هدف بصورت اتفاقی تولید می شود , پس از اجرای برنامه شبیه ساز عددی را که معرف انحراف معیار و یا برازش آن مجموعه از اطلاعات است را به آن عضو از جمعیت مذکور نسبت می دهیم .

    این عمل را برای تک تک اعضای ایجاد شده تکرار می کنیم , سپس با فراخوانی عملگرهای الگوریتم ژنتیک از جمله لقاح , جهش و انتخاب نسل بعد را شکل می دهیم و این روال تا ارضای معیار همگرایی ادامه داده خواهد شد.

    هنگامی که لغت تنازع بقا به کار می‌رود اغلب بار ارزشی منفی آن به ذهن می‌آید.

    شاید همزمان قانون جنگل به ذهن برسد و حکم بقای قوی‌تر!

    البته برای آنکه خیالتان راحت شود می‌توانید فکر کنید که همیشه هم قوی‌ترین‌ها برنده نبوده‌اند.

    مثلا دایناسورها با وجود جثه عظیم و قوی‌تر بودن در طی روندی کاملا طبیعی بازی بقا و ادامه نسل را واگذار کردند در حالی که موجوداتی بسیار ضعیف‌تر از آنها حیات خویش را ادامه دادند.

    ظاهرا طبیعت بهترین‌ها را تنها بر اساس هیکل انتخاب نمی‌کند!

    در واقع درست‌تر آنست که بگوییم طبیعت مناسب ترین‌ها (Fittest) را انتخاب می‌کند نه بهترین‌ها.

    قانون انتخاب طبیعی بدین صورت است که تنها گونه‌هایی از یک جمعیت ادامه نسل می‌دهند که بهترین خصوصیات را داشته باشند و آنهایی که این خصوصیات را نداشته باشند به تدریج و در طی زمان از بین می‌روند.

  • فهرست:

    ندارد.
     

    منبع:

     

    1. www.ShabakehMagazine.com (ماهنامه شبکه)

    2. www.autoir.com (مرکزتحقیقات و فناوری)

    3. سایت نما (مجله الکترونیکی پژوهشگاه اطلاعات و مدارک علمی ایران)

    4.www.aftab.ir  (سایت خبری و مقالات)  

    5 . سایت ندای آزاد

    6 . www.exprtststems.blogfa.com

    7 . www.developercenter.ir

    8 . www.iasbs.ac.ir/it/archive  (مرکز تحصیلات تکمیلی در علوم پایه زنجان)

     9 . سایت دنیای مجازی (هوش مصنوعی )

     

امروزه با شکسته شدن پی در پی استقلال ، شاخه های مختلف علوم و بهره وری شاخه ای از شاخه ی دیگر و پیشبرد مسائل پیچیده خود، پیوستگی و لاینفک بودن تمامی شاخه های علوم را نمایان تر می سازد که سرمنشأ تمامی آنها از یک حقیقت نشأت گرفته و آن ذات باری تعالی است.اولین تلاش ها به منظور ارائه ی یک مدل ریاضی برای سیستم عصبی انسان در دهه 40 توسط Mcculloch , pitts انجام شد ، که حاصل آن یک نورون ...

هوش محاسباتي يا (Computational-Intelligence) CI به معناي استخراج هوش، دانش، الگوريتم يا نگاشت از دل محاسبات عددي براساس ارائه به روز داده‌هاي عددي است. سيستم‌هايCI در اصل سيستم‌هاي ديناميکي مدل آزاد (Model-free) را براي تقريب توابع و نگاشتها ارائه م

مقدمه در سالیان اخیر شاهد حرکتی مستمر از تحقیقات صرفاً تئوری به تحقیقات کاربردی در پردازش اطلاعات برای مسائلی که راه حلی برای آنها موجود نیست بوده ایم. با توجه به این حقیقت توجه زیادی به توسعه تئوریک سیستمهای دینامیکی هوشمند مدل- آزاد بر اساس داده های تجربی وجود دارد. شبکه های عصبی مصنوعی جزء آن دسته از سیستم های دینامیکی قرار دارند که با پردازش بر روی داده های تجربی دانش در ...

فصل 1 : مقدمه انسان و کامپیوتر انسان ها از کامپیوترها باهوش ترند. چرا چنین گفته می‌شود؟ درست است که بعضی از اعمالی را که ما به سختی انجام می دهیم یک کامپیوتر به سرعت و به راحتی انجام می دهد ،مانند جمع چندصد عدد ، اما این مطلب باعث نمی شود که ما یک کامپیوتر را باهوشتر از انسان بدانیم چون این سیستم هرگز قادر نمی باشد که اعمالی را که نیاز یه استدلال دارد و یا حل آنها از طریق شهودی ...

چکیده: در عصر حاضر در بسیاری از موارد ماشین ها جایگزین انسانها شده اند و بسیاری از کارهای فیزیکی که در گذشته توسط انسانها انجام می گرفت امروزه توسط ماشین ها صورت می گیرد . اگرچه قدرت کامپیوترها در ذخیره، بازیابی اطلاعات و اتوماسیون اداری ،.. غیر قابل انکار است، اما همچنان مواردی وجود دارد که انسان ناچار است خودش کارها را انجام دهد. اما به طور کلی ، موارد مرتبط با ماشین شامل ...

الگوريتم ها در کامپيوتر ها اعمال مشخص و واضحي هستند که بصورت پي در پي و در جهت رسيدن به هدف خاصي انجام مي شوند.حتي در تعريف الگوريتم اين گونه آمده است که الگوريتم عبارت است از مجموعه اي ازاعمال واضح که دنبال اي از عمليات را براي رسيدن به هدف خاصي دن

مقدمه انسان و کامپیوتر انسان ها از کامپیوترها باهوش ترند. چرا چنین گفته می‌شود؟ کامپیوترها هرگز قادر به این کار به طور مطلوب نیستند. شاید بهتر است بگوییم آن‌هاموجودات منطقی ای هستند و تنها اعمال منطقی را به خوبی انجام می دهند. هدف هوش مصنوعی را می توان در این جمله خلاصه کرد که می خواهد در نهایت به کامپیوترهایی دست یابد که اغلب در فیلم های سینمایی مشاهده می شود، ماشین‌های بسیار ...

چکیده: شبکه‌های عصبی مصنوعی از مباحث جدیدی است که دانشمندان علوم کامپیوتر به آن علاقمند شده‌اند و برای پیشرفت هرچه بیشتر علوم کامپیوتر وقت و هزینه بسیاری را صرف آن کرده و می‌کنند. این موضوع با ایده گرفتن از سیستم عصبی بدن انسان و با هدف شبیه‌سازی هرچه بیشتر کامپیوتر به انسان شکل گرفت و تا حال به خوبی پیشرفته است. از جمله کاربردهای این بحث می‌توان از شناسایی الگوها, پردازش تصویر ...

1- مقدمه با توجه به اهميت و حساسيت امر مهار آب‌ هاي سطحي خصوصاً در کشور ما که اکثر رودخانه‌هاي مناطق مختلف فصلي بوده و کمبود آبي که در پهنه وسيعي از کشور وجود دارد ، نياز به شناسايي و به مدل در‌آوردن رفتار رودها و شريان‌هاي آبي جهت ب

شبکه هاي عصبي مصنوعي در بسياري از موارد تحقيق و در تخصص هاي گوناگون به کار گرفته شده و به عنوان يک زمينه تحقيقاتي بسيار فعال حاصل همکاري دانشمندان در چند زمينه علمي از قبيل مهندسي رايانه ، برق ، سازه ، و بيو لوژي اند . از موارد کاربرد شبکه اي عصبي م

ثبت سفارش
تعداد
عنوان محصول