به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام
یه دیتا دو کلاسه دارم هرچی مدل رو عوض میکنم loss کم میشه ولی ACC هیچ تغییری نمیکنه بین 48 - 53 نوسان میکنه
علت چی میتونه باشه ؟
LR های متفاوت هم تست کردم فرقی نکرد, optimizer هم nadam هست.
با تشکر

توسط (208 امتیاز)

2 پاسخ

+1 امتیاز

سلام
چندتا نکته رو تست کنید لطفا:

1 - توزیع کلاسها چطوریه؟ یعنی مثلا 50 50 تقسیم شده و اگه رندوم کار کنیم، دقت باید 50 بشه؟

2 - دیتاها چقدر از نظر خودتون سخته؟ به عبارت دیگه، اگه با فرض که دیتا ها نصف نصف باشه و بدین به یه آدم، چقدر انتظار دارید از رندوم بهتر کار کنه؟

3 - یه سیستم ساده تر مثل SVM که به اندازه کافی روی hyperparameter هاش مثل C کار کردید چقدر دقت بهتون داده؟

4 - شبکه تون روی training set به دقت نزدیک 100 درصد میرسه؟ کلا دقتتون روی training چقدر میشه؟
اگه روی training هم شبکه نمی تونه دقت بالایی بگیره احتمالش هست ظرفیت شبکه تون کم باشه
حالا یا اینکه شبکه کلا کوچیکه، یا کم train شده یا اینکه خیلی از regularization هایی مثل dropout و l2 و از این جور چیزا استفاده کردید

توسط (1.6k امتیاز)
سلام
1- توزیع 50 50 هست و جواب سخته حدود 60-70 باید بتونه بگه
2-تصویره دیتا نمیشه با چیز دیگه تست کرد
3- نه ترین کلا بین 40- 50 نوسان میکنه بعد روی 49 - 51 نوسان میکنه تا آخر
4- لایه های conv رو بیشتر کنم یا dense تا قوی تر بشه ؟ conv به نظرم vgg به اندازه کافی بزرگ هست
در مورد چیزی مثل svm نه اینکه مستقیم خوده تصویر رو بدید، مثلا یه feature شبیه sift یا haar ازش در بیارید و بدید به classifier های دیگه. اون بنده خدا ها هم با تصویر کار می کردن D:

الان که دقت training هم در حد رندومه کلا فعلا نباید نگران سختی مساله بود و اول باید خوده ساختار درست شه. چون حداقل تا این حد باید بدونیم که اگه به شبکه داده رندوم هم بدیم و ظرفیتش به اندازه کافی باشه باید بتونه همش رو حفظ بکنه و دقت training خیلی بالا بشه.
برای این کار اولا اینکه به جا vgg یه چیزی شبیه ResNet 50 یا 101 استفاده کنید، خوده این ممکنه کار رو بهتر کنه و ساختار vgg ضعف زیاد داره.
وقتی دیدید که دقت بهتر شد اینقدر training رو ادامه بدید یا ظرفیت رو بیشتر کنید تا دقت آموزش برسه به نزدیک 100 بعد با regularization کنترلش کنید
این نکته ای هم که دوستمون گفته می تونه خیلی تاثیر بذاره راستی و اینه که داده ها رو نرمال کرده باشید حداقل، اگه پیش پردازش دیگه هم انجام نمی دید.
خوده ResNet استفاده کنید لایه های batch normalization یکم این قضیه رو هندل می کنن اما بهتره خودتون هم داده های ورودی رو نرمال کنید
0 امتیاز

سلام
با توجه به اینکه داده‌ها 50-50 هست و صحت مدل هم در همین حدود هست، عملا مدل شما آموزش ندیده.
چند نکته که به ذهنم میرسه
1. شاید یه پیش‌پردازش مناسب کمک خوبی برای تمایز قائل شدن بین کلاس‌ها ایجاد کنه.
2. ظرفیت مدل، مناسب برای اینکار نیست (لزوما این نیست که مدل کوچک باشه، شاید مدل بزرگ باشه).
3. استفاده مناسب از regularization می‌تونه کمک کننده باشه.

توسط (138 امتیاز)
سلام
1- روی تصویر چه پیش پردازشی رو پیشنهاد میدین؟
2-در چه زمانی مدل بزرگ میتونه جلوی رشد صحت شبکه رو بگیره ؟
...