Gray neural texture abstract vector

در تمام شبکه‌های عصبی قدیمی و شبکه‌های عصبی کانولوشنی نگاشت‌های استاتیک داشتیم. با استفاده از شبکه‌های عصبی بازگشتی می‌توان خاصیت دینامیک را به شبکه اضافه کرد. این شبکه‌ها برای تحلیل داده‌هایی به کار می‌روند که ذات دینامیک دارند، این متغیر دینامیک لزوماً زمان نیستند. به عنوان مثال فرض کنید داده‌ها یک متن تایپ‌شده هستند و برای تحلیل اینکه موضوع متن سیاسی یا وزرشی است می‌توان از شبکه‌های عصبی بازگشتی استفاده کرد. به‌طورکلی برای داده‌هایی که به صورت ترتیبی هستند استفاده از شبکه‌های عصبی بازگشتی ایده مناسبی است.از کاربرد‌های شبکه‌های عصبی بازگشتی می‌توان به موارد زیر اشاره کرد:

  • پیش‌بینی سری‌های زمانی
  • پردازش زبان طبیعی
  • پردازش صحبت
  • ماشین‌های پاسخگو (سوال‌کننده)
  • عنوان‌گذاری عکس

شبکه‌های عصبی بازگشتی رابطه کلی به صورت زیر دارند.

h_t=f_w (h_(t-1)،x_t)

در رابطه بالا  بردار ورودی و  حالت در هر گام زمانی است. همچنین در رابطه بالا تابع  و پارامتر‌های موجود در آن در هر گام زمانی ثابت هستند. رابطه بالا را می‌توان به صورت شکل زیر نیز مدل کرد.

در این رابطه A نگاشتی غیرخطی است که پارامتر‌هایی مانند W و فیدبکی از گام زمانی قبلی به گام زمانی فعلی دارد. با وجود اینکه نگاشت ما غیرخطی است ولی در جنبه‌هایی اجازه متغیر بودن با زمان ندارد. مثلاً A که یه نگاشت غیرخطی است پارامتر‌های آن (W) در تمام گام‌های زمانی ثابت است. همچنین ضابطه این تابع نیز در تمام گام‌های زمانی ثابت است که یکی از عوامل منظم‌سازی در این شبکه‌ها همین ثابت بودن ضابطه در گام‌‌های زمانی مختلف است. یکی از توابع معمول در این شبکه‌ها تابع tanh است. با استفاده از تابع tanh روابط شبکه عصبی بازگشتی به صورت زیر در می‌آید.

h_t=tanh⁡(W_hh*h_(t-1)+W_xh*x_t)

همچنین خروجی این شبکه به صورت زیر تعریف می‌شود.

y_t=W_hy*h_t

در شکل قبل ورودی‌ها با هم ارتباط زمانی دارند و ورودی هر گام زمانی به گام‌های قبل از خود نیز بستگی دارد. با استفاده از باز کردن شکل قبل در لحظات مختلف شکل زیر حاصل می‌شود.

 

همانطور که در شکل بالا دیده می‌شود این شبکه در گام‌های زمانی مختلف مانند شبکه‌های عصبی معمولی است با این تفاوت که در شبکه‌های عصبی معمولی لایه‌های مختلف با هم ارتباط زمانی نداشتند. همچنین نگاشت غیرخطی در این شبکه‌ها از هر لایه به لایه دیگر تفاوت داشت و به همین خاطر ضرایب از هر لایه به لایه دیگر فرق می‌کند.

شبکه‌های عصبی بازگشتی بر حسب تعداد ورودی و خروجی انواع مختلفی دارند که عبارتند از:

  • شبکه‌های عصبی بازگشتی با چند ورودی با یک خروجی
  • شبکه‌های عصبی بازگشتی با یک ورودی و چند خروجی
  • شبکه‌های عصبی بازگشتی با چند ورودی و چند خروجی

در شکل‌های زیر این انواع مختلف نمایش داده شده‌اند.

س

پست را به اشتراک بگذارید

در facebook به اشتراک بگذارید
در linkedin به اشتراک بگذارید
در twitter به اشتراک بگذارید
در email به اشتراک بگذارید

پست های مرتبط

ماشین بردار پشتیبان (SVM)

در اﯾﻦ اﻟﮕﻮرﯾﺘﻢ دسته‌بندی، دو ابرﺻﻔﺤﻪ در ﻣﺮز دو ﮐﻼس داده‌ها ﻗﺮار ﮔﺮﻓﺘﻪ می‌شود و ﻣﺴﺌﻠﻪ، ﯾﺎﻓﺘﻦ ﻣﺮز ﺣﺪاﮐﺜﺮي ﺑﯿﻦ اﯾﻦ دو ابرﺻﻔﺤﻪ و درنتیجه

شبکه عصبی بازگشتی LSTM

LSTM نوع خاصی از شبکه‌های عصبی بازگشتی است که برای حل مشکل گرادیان شبکه‌های عصبی بازگشتی قدیمی مطرح شد. این شبکه‌ها برای حذف ضرب‌های متوالی

جنگل تصادفی

جنگل تصادفی یکی از الگوریتم‌های با سرپرست در یادگیری ماشین است که برای کاربرد‌های طبقه‌بندی و رگرسیون مورد استفاده قرار می‌گیرند. همانگونه که از اسم

دیدگاه خود را بنویسید