به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام وقت بخیر
دوستان برای حل مشکل گرادیان در شبکه های کانالوشنی و بازگشتی چه تکنینکی هایی بکار برده شده است ؟ مثلا در گوگل نت از مسیرهای skip connection استفاده شده بود در مدل های جدید از چه تکنیکی هایی برای بالابردن تعداد لایه ها بکار برده میشود

توسط (389 امتیاز)

1 پاسخ

0 امتیاز

سلام
این مبحث خیلی گستردس اما به چندتا نمونه هاش اشاره می کنم، انشالله بقیش رو خودتون دنبال می کنید:

1- بحث skip connection که خودتون بهش اشاره کردید و البته با شبکه های ResNet معروف شد. این نوع skip connection ها می تونه خیلی متنوع باشه. از مدل عادی ResNet که خروجی لایه های با هم جمع میشه، تا مثلا ایده DenseNet که خروجی ها با هم concat میشن. اما تهش همه به یه نحوی skip connection محسوب میشن

2- ایده deep supervision که توی googleNet هم استفاده شد و خلاصش اینطوری که به جای اینکه loss رو فقط اون آخر تعریف کنیم، توی جاهای مختلف loss رو تعریف کنیم. توی اولین مدل googleNet خیلی روش تاکید شده بود اما الان به نظر میاد مثل سابق توی بورس نیست.

3 - ایده های مرتبط با batch normalization و ایده های شبیه اون مثل layer normalization یا spectral normalization و ....
این نوع ایده ها هم به نحوی با نرمال کردن ورودی ها، در واقع اطلاعات گرادیان رو برای بهینه سازی بهبود میدن
مثلا برای batch normalization قبلا فکر می کردن چیزی به اسم internal covariate shift رو چون کاهش میده اینقدر آموزش شبکه بهتر میشه اما توی مقاله های جدید فهمیدن چیزهای دیگه دخیله.

How Does Batch Normalization Help Optimization? (No, It Is Not About Internal Covariate Shift)

https://arxiv.org/abs/1805.11604

4 - ایده های مربوط به Initialization اولیه شبکه
خیلی جاها مثلا توی مقاله IRNN فهمیدن بدون ایده های خیلی جذاب و فقط با initialization درست هم میشه دقت های خوبی گرفت. برای شبکه های cnn هم این موضوع صادقه.

5 - استفاده از روشهای بهتر برای بهینه سازی یا روشهای بدون نیاز به گرادیان

=====================

اینها فقط چندتا نمونه کارهایی که انجام شده و هم برای شبکه های CNN کار می کنه و هم برای شبکه های RNN
اما به طور اختصاصی روی شبکه های RNN هم کارهایی شده، نمونش تعریف ساختارهای جدید مثل LSTM یا GRU ه
یا توی مدل های دیگه مثل Clockwork
اما به عنوان یه تمرین بد نیست که به این ساختارها فکر کنید و اون موقع خیلی روشن میشه که این نوع ساختارها هم به شدت شبیه ایده skip connection هستن، اما هر کدوم به نوعی این کار رو انجام میدن

بعد از این تمرین می فهمید که ResNet با همه سادگیش عجب ایده ای بوده و چرا هینتون از اینکه این ایده رو حدود 10 سال پیش نگفته و دنبال نکرده پشیمونه :)))

توسط (1.6k امتیاز)
؛؛ چرا هینتون از اینکه این ایده رو حدود 10 سال پیش نگفته و دنبال نکرده پشیمونه :))) ؛؛
داداش خوب اونموقع درگیر کپسول بود وقت نمی کرد. البته ایده کپسول هم تا سارا رو نفرستادیم کمکش تکمیل نشد :ی
...