به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام
چه زمانی اشباع گرادیان اتفاق می افتد و همینطور فرق این دو مفهوم saturating gradient و vanishing gradient در چه هست ؟ این اتفاق در فاز رفت شبکه ات یا بک پروپگیت ؟
متشکرم

توسط (104 امتیاز)
ویرایش شده توسط

1 پاسخ

+1 امتیاز
 
بهترین پاسخ

سلام
بطور خیلی خلاصه میشه گفت saturating gradient اشاره به مقادیر حدی تابع داره که در اون نواحی گرادیان صفر یا بسیار نزدیک به صفره . saturating gradient در توابعی مثل سیگموید و tanh زیاد اتفاق می افته چون اگه به شکل تابع نگاه کنید میبینید تنها بخش کوچکی در وسط نمودار دارای مقادیر گرادیان مناسب هست و هرچقدر به دو طرف انتهای نمودار شما نزدیک تر بشید گرادیان ها به مقادیر صفر بیشتر میل میکنن. (سیگموید و tanh توابع saturating هستند یعنی هرچی بهشون بدید بین یک رنج تبدیل میکنن ( 0 و 1 یا -1 و 1 ) )
Vanishing gradient هم اشاره به مقادیر بسیار کوچیک گرادیان ها داره که متاثر از همون بحث saturated gradients هم هست و این مقادیر در معماری های عمیق رفته رفته بخاطر ضرب هایی که اتفاق می افته تا بخوان به ابتدای شبکه برسن انقدر کوچک و ناچیز میشن که لایه های ابتدایی به سختی میتونن اموزش ببینند.

این بحث گرادیان مربوط به فاز بک پراپگیشن هست و محاسبه خطا و انتساب اون به هر یال

توسط (4.3k امتیاز)
انتخاب شده توسط
...