به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

+1 امتیاز

سلام
چگونه می توان حالت قرار گیری یک شبکه عصبی عمیق در مینیمم محلی را بررسی نمود؟ این رفتار را باید در کدام بخش از شبکه و چگونه دنبال کرد؟
اگر منبع خاصی در پاسخ به این پرسش مد نظر صاحب نظران و بزرگان است سپاسگزار خواهم بود آن را پیوست پاسخ نمایند.

سپاسگزارم

توسط (144 امتیاز)

1 پاسخ

+1 امتیاز
 
بهترین پاسخ

سلام.
در شبکه های معمولی یکی از علائم اینه که شما تو یه دقت کم باقی میمونید و هرچقدر ادامه بدید اموزش شبکه رو تغییری در دقت مشاهده نمیکنید.
تو شبکه های عمیق قبلا گفتیم که این مساله مینیمم محلی رو نداریم و بجاش مساله saddle point ها رو داریم. که اگر شبکه در یکی از این نقاط قرار بگیره میشه با صرف زمان بیشتر به شبکه این فرصت رو داد که از اون نقطه خارج بشه. اینجا و اینجا و اینجا رو بخونید خوبه.

توسط (4.3k امتیاز)
انتخاب شده توسط
سلام ممنونم از پاسخ خوبتون ولی مشکل مینیمم محلی با افزایش لایه کم میشود ولی از بین نمی رود این مطلب بین منابعی که قبلا خودتون بزرگواری کردید در پاسخ به سوالات قبلی ام در همین زمینه بود ارائه کرده بودید مشاهده کردم یعنی نسبت سدل پوینت به لوکال افزایش پیدا میکند. بنظر شما اگر حتی 1% هم احتمال وقوع این مساله در شبکه های عمیق وجود داشته باشد باز هم باید به دقت این شبکه ها نگاه کرد؟
متشکرم
اگه همون 1 درصد ما با یه لوکال مینیمم واقعی سرو کار پیدا کنیم (یعنی لوکال مینیممی که تو همه ابعاد لوکال مینیمم باشه نه فقط چندتا بعد) اونوقت این یعنی این لوکال مینیممه خیلی به گلوبال مینیمم نزدیکه و بخاطر همین خیلی نزدیک بودن دیگه مهم نیست که ما تو لوکال مینیمم هست.
تو یکی از اون لینکهایی که دادم خیلی خوب توضیح داده " اگه یک بعد داشته باشیم یک نقطه هست که با احتمال p میتونه مینیمم محلی باشه و نه سراسری. حالا اگه 1000 بعد داشته باشیم احتمال اینکه یک نقطه در یک فضای 1000 بعدی برای همه ابعاد یه مینیمم محلی باشه P ^1000 هست! که یه عدد فوق العاده کوچیکه.البته احتمال مینیمم محلی بودن تو بعضی از این ابعاد بخیلی الا هم هست. برای همین وقتی یکدفعه ما به یه لوکال مینیمم تو تعداد زیادی از ابعاد میرسیم بنظر میاد آموزش گیر کرده و پیش نمیره تا زمانی که بتونه جهت درست رو پیدا کنه .
مضافا اینکه احتمال p با نزدیکتر شدن مقدار Loss  به مقدار مینیمم سراسری افزایش پیدا میکنه و اینم یعنی اینکه اگه ما واقعا تو یه مینیمم محلی واقعی بیوفتیم اونوقت دیگه اصلا مهم نیست چون این مینیمم محلی خیلی به مینیمم سراسری نزدیکه و هیچ مشکلی برای ما ایجاد نمیکنه .
3تا لینک هست که تو لینکهای بالا ارجاع دادن در این رابطه شاید خوندنش برای شما مطالب تازه ای داشته باشه :
http://arxiv.org/abs/1405.4604
http://arxiv.org/abs/1406.2572
http://arxiv.org/abs/1412.0233
...