به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام
دوستانی که object detection کار کردند احتمالا با اصلاح hard negative mining اشنایی داشته باشند من در اکثر مقالاتی که برای طبقه بندی از svm استفاده کردند گفتند ک برای ترین Svm از hard negative mining استفاده میکنند و میگه نمونه های مثبت اونهایی هستند که با ground truth حداقل 0.5 overlap دارند و نمونه های منفی هم اونایی که کمتر از 0.5 overlap دارند و hard negative ها اونایی که کمتر از 0.3 اورلپ دارند حالا چرا با هارد نگاتیوها ترین میکنند لطف کنند یکم بیشتر توضیح دهند ؟
و اینکه وقتی svm برای طبقه بندی استفاده میکنند فقط لایه softmax رو حذف میکنند یا اینکه fc ها + softmax ؟

توسط (389 امتیاز)
ویرایش شده توسط

1 پاسخ

+1 امتیاز
 
بهترین پاسخ

سلام
اینکه چرا از hard negative استفاده میشه، یه ایده ساده پشتش داره:
شما یه سری دیتا دادید به classifier تون (مثال های مثبت از شی و مثالهایی از background) و مرحله آموزش هم تموم شده رفته، حالا قراره توی عمل تستش کنید
مثلا classifier قرار بوده آدم ها رو توی یه فریم تشخیص بده. الان برای تستش، به صورت sliding window ، پچ هایی از تصویر در میارید و میدید به classifier که بگه اینجا آدم هست یا نه
اونجا هایی که بیشتر 0.5 overlap داشته و گفته اینجا آدم هست که خوبه ، اما اونجاهایی که کمتر از 0.3 اورلپ داشتن اما بازم classifer گفته اینجا آدم هست، یعنی اون قسمت تشخیصش برای classifier مشکل بوده
این قسمتها رو جدا می کنیم و به عنوان مثالهای negative به مجموعه آموزشیمون اضافه می کنیم و دوباره با training set جدید آموزش میدیم
بعد از آموزش دوباره می تونیم این مراحل رو برای چند باره دیگه تکرار کنیم
شهود می گه با این کار باید عملکرد نهایی بهتر بشه
البته اینکه hard negative ها چطوری تعیین بشن یه انتخاب توی طراحیه ، مثلا اینجا اینطوری بوده که classifier اونجاهایی که کمتر از 0.3 با groung truth انطباق داشته رو مثبت تشخیص بده، اما این معیار دست خودتونه و می تونه بر اساس مسائل مختلف تغییر کنه

در مورد سوال آخرتون هم متاسفانه من متوجه منظورتون نشدم،
در مورد اینکه softmax رو حذف میکنیم و svm می ذاریم منظورتون توی شبکه های عصبیه؟

توسط (1.6k امتیاز)
انتخاب شده توسط
...