svm_2

در اﯾﻦ اﻟﮕﻮرﯾﺘﻢ دسته‌بندی، دو ابرﺻﻔﺤﻪ در ﻣﺮز دو ﮐﻼس داده‌ها ﻗﺮار ﮔﺮﻓﺘﻪ می‌شود و ﻣﺴﺌﻠﻪ، ﯾﺎﻓﺘﻦ ﻣﺮز ﺣﺪاﮐﺜﺮي ﺑﯿﻦ اﯾﻦ دو ابرﺻﻔﺤﻪ و درنتیجه ﺑﯿﻦ دو دسته داده است. ﺑﻪ اﯾﻦ ﺻﻮرت ﮐﻪ دو ابرﺻﻔﺤﻪ آن‌قدر از ﻫﻢ دور ﺷﻮﻧﺪ ﮐﻪ ﺑﻪ داده‌ها ﺑﺮﺧﻮرد ﮐﻨﻨﺪ. ﻫﺪف، ﯾﺎﻓﺘﻦ دو ابرﺻﻔﺤﻪاي اﺳﺖ ﮐﻪ ﺑﯿﺸﺘﺮﯾﻦ ﻓﺎﺻﻠﻪ را از هم دارند و درنتیجه ابرﺻﻔﺤﻪ ی ﺑﯿﻦ اﯾﻦ دو ابرﺻﻔﺤﻪ، ﺑﻬﺘﺮﯾﻦ ﺟﺪاﮐﻨﻨﺪه ﺧﻮاﻫﺪ ﺑﻮد. در بخش‌های بعد به محاسبات ریاضی مربوط به تعیین این ابرصفحه ها خواهیم پرداخت.

اﯾﺪه اﺻﻠﯽ در SVM این است که با فرض جداپذیری کلاس‌ها از هم، ابرصفحاتی که قادر به ﺟﺪاﻧﻤﻮدن کلاس‌ها از ﻫﻢ ﺑﺎﺷﻨﺪ را به دست می‌آورد. در مسائلی ﮐﻪ داده‌ها به‌صورت ﺧﻄﯽ ﺟﺪاﭘﺬﯾﺮ ﻧﺒﺎﺷﻨﺪ ﺑﺎ اﺳﺘﻔﺎده از هسته‌های ﻏﯿﺮﺧﻄﯽ، داده‌ها را ﺑﻪ ﻓﻀﺎي ﺑﺎ اﺑﻌﺎد ﺑﯿﺸﺘﺮ ﻧﮕﺎﺷﺖ می‌دهیم ﺗﺎ ﺑﺘﻮان آن‌ها را در اﯾﻦ فضای جدید به‌صورت خطی جدا نمود.

ماشین‌های ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ﺑﺎ اراﺋﻪ ﯾﮏ ﻣﺪل آﻣﺎري به‌عنوان ﯾﮑﯽ از ﺷﻨﺎﺧﺘﻪﺷﺪهﺗﺮﯾﻦ روش‌ها در زمینه‌ی دسته‌بندی داده‌ها ﻣﻄﺮح اﺳﺖ. ﯾﮑﯽ از ﻣﺴﺎﺋﻠﯽ ﮐﻪ در اراﺋﻪ ﯾﮏ ﻣﺎﺷﯿﻦ دسته‌بندی ﮐﻨﻨﺪه ﻏﯿﺮﺧﻄﯽ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ﺑﺎ آن ﻣﻮاﺟﻪ ﻫﺴﺘﯿﻢ، ﻧﺤﻮه ﺗﻌﺮﯾﻒ ﻫﺴﺘﻪ و ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺮﺗﺒﻂ ﺑﺎ آن اﺳﺖ. دﺳﺘﻪ شناخته‌شده‌ای از ﺗﻮاﺑﻊ ﻫﺴﺘﻪ ﻫﻤﭽﻮن ﻫﺴﺘﻪ چندجمله‌ای، ﮔﻮﺳﯽ و ﺳﯿﮕﻤﻮﺋﯿﺪ ﻣﻌﺮﻓﯽ شده‌اند ﮐﻪ ﻧﯿﺎزﻣﻨﺪ ﺗﻨﻈﯿﻢ ﺷﺪن ﭘﺎراﻣﺘﺮﻫﺎ ﺟﻬﺖ ﮐﺎراﯾﯽ ﻣﻄﻠﻮب ﻫﺴﺘﻨﺪ.

شبکه‌های عصبی SVM برخلاف سایر شبکه‌های عصبی، به‌جای این‌که خطای طبقه‌بندی را کمینه کنند، ریسک عملیاتی را به‌عنوان تابع هدف در نظر می‌گیرند و آن را بهینه می‌کنند. یعنی ریسک عدم طبقه‌بندی صحیح را به‌صورت کمی درآورده و آن را کمینه می‌کند.

شکل زیر را در نظر بگیرید. از بین سه تفکیک‌کننده‌ی موجود، H1 طبقه‌بندی را اشتباه انجام داده است. اما برای این‌که بفهمیم بین H2 و H3 کدام‌یک تفکیک‌کننده‌ی بهتری هستند، این‌طور فرض می‌کنیم که هر یک از نقاط نزدیک تفکیک‌کننده، نیرویی به خط وارد می‌کنند به‌طوری‌که خط را از خود دور کنند. در آن صورت می‌بینیم که H2 به سمت H3 میل کرده بنابراین H3 تفکیک‌کننده‌ی مطلوب‌تری است.

نمایش دوبعدی سه تفکیک‌کننده برای SVM دوکلاسه، H1 تفکیک را به‌درستی انجام نمی‌دهد، H2 تفکیک را با حاشیه‌ی اطمینان کم انجام داده و H3 تفکیک‌کننده‌ی مطلوب با در نظر گرفتن حاشیه‌ی اطمینان بالا می‌باشد.

پست را به اشتراک بگذارید

در facebook به اشتراک بگذارید
در linkedin به اشتراک بگذارید
در twitter به اشتراک بگذارید
در email به اشتراک بگذارید

پست های مرتبط

شبکه عصبی بازگشتی LSTM

LSTM نوع خاصی از شبکه‌های عصبی بازگشتی است که برای حل مشکل گرادیان شبکه‌های عصبی بازگشتی قدیمی مطرح شد. این شبکه‌ها برای حذف ضرب‌های متوالی

شبکه‌های عصبی بازگشتی

در تمام شبکه‌های عصبی قدیمی و شبکه‌های عصبی کانولوشنی نگاشت‌های استاتیک داشتیم. با استفاده از شبکه‌های عصبی بازگشتی می‌توان خاصیت دینامیک را به شبکه اضافه

جنگل تصادفی

جنگل تصادفی یکی از الگوریتم‌های با سرپرست در یادگیری ماشین است که برای کاربرد‌های طبقه‌بندی و رگرسیون مورد استفاده قرار می‌گیرند. همانگونه که از اسم

دیدگاه خود را بنویسید