به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

با عرض سلام و احترام
و تشکر فراوان به خاطر سایت فوق العادتون
در معماری الکس نت برای کاهش اورفیتینگ دو مبحث بیان شده
1-Data Augmentation
2-Dropout
اگر ممکنه یک توضیح اجمالی راجب اینها و عملکردشان بفرمایید بنده منظور این بخشها رو برداشت نکردم
ا تشکر

توسط (149 امتیاز)
علی الحساب یه توضیح خیلی مختصر میدم تا سرفرصت امروز توضیح کاملتر رو بدم.
دیتا اگمنتیشن که همون افزودن داده میشه (زیاد کردن داده )
دراپ اوت هم یه الگوریتم (لایه) برای جلوگیری از اورفیتینگ هست که فکر میکنم تو اموزش شبکه های کانولوشن توضیح دادم در موردش! اگه ندادم بگید .

1 پاسخ

+2 امتیاز
 
بهترین پاسخ

خب این بخشی از متن پایان نامه من بودکه در مورد drop out خیلی خلاصه توضیح داده شده و بنظرم برای شما هم روشن کنه که داستان از چه قراره. :
از انجایی که یک لایه تماما متصل بیشترین تعداد پارامترها را بخود اختصاص میدهد, در نتیجه در معرض بیش برازش خواهد بود. روش حذف تصادفی به منظور جلوگیری از بیش برازش معرفی شد و نحوه کار آن به اینصورت است که در هر مرحله از آموزش, هر نورون یا با احتمال 1-p (از شبکه) بیرون انداخته شده و یا با احتمال p نگه داشته میشود, بطوریکه نهایتا یک شبکه کاهش داده شده باقی بماند. یالهای ورودی و خروجی به یک نود بیرون انداخته شده نیز حذف میشوند.اینگونه تنها شبکه کاهش یافته بر روی داده ها در آن مرحله آموزش خواهد دید.(بعد از این کار) نودهای حذف شده سپس به همراه وزنهای سابق آنها دوباره به درون شبکه وارد میشوند.
در مراحل آموزشی, احتمال اینکه یک نود مخفی حفظ شود معمولا 0.5 است. برای نودهای ورودی , احتمال نگه داری باید بمراتب بیشتر باشد. بصورت شهودی این یعنی اینکه با حذف نودهای ورودی اطلاعات بصورت مستقیم از بین خواهند رفت بنابر این ضروری است که نودهای ورودی دارای احتمال نگه داری بمراتب بیشتری باشند ( یعنی کمتر بیرون انداخته شوند)
در زمان آزمایش, زمانی که آموزش به پایان رسیده است, ما معمولا علاقمندیم که یک نمونه میانگین از تمام 2^n شبکه بیرون انداخته شده را بیابیم . متاسفانه این عمل برای n های بزرگ غیرعملی است. اما ما میتوانیم به تخمینی با استفاده از یک شبکه کامل که تمام خروجی نودهای آن با فاکتور p وزن دار شده اند برسیم . بنابر این مقدار مورد انتظار خروجی هر نود برابر با همان مقدار در مراحل آموزشی خواهد بود. . این بزرگترین دستاورد روش حذف تصادفی است هرچند که این روش بصورت موثر 2^n شبکه عصبی ایجاد میکند و در نتیجه این کار اجازه ترکیب مدل را میدهد و در زمان آزمایش تنها یک شبکه نیاز به تست خواهد داشت.
با پرهیز از آموزش تمامی نودها بر روی تمامی داده ها , روش حذف تصادفی بیش برازش , را در شبکه های عصبی کاهش میدهد.این روش همچنین بصورت چشم گیری باعث افزایش سرعت آموزش میشود. این امر باعث عملی شدن ترکیب مدلها حتی برای شبکه های عصبی عمیق میشود.

در مورد DataAugmentation هم منظور افزایش داده است .و همونطور که میدونید با افزایش داده شما جلوی بیش برازش یا همون اورفیتینگ رو میگیرید چون تعداد پارامترها بسیار زیاده و برای تنظیم مناسب اونها شما به نمونه های زیادی نیاز دارید.اطلاعات بیشتر در این زمینه رو هم میتونید معمولا در هر کتاب یا جزوه یادگیری ماشینی پیدا کنید . کورس ماشین لرنینگ اقای اندرو ان جی هم خیلی قشنگ این موضوع رو باز میکنه که میتونید اون رو هم مطالعه کنید.

توسط (4.3k امتیاز)
انتخاب شده توسط
ممنون از لطفتون زحمت کشیدید
پس طبق فرمایشتون drop out ی لایه است که بعد از لایه تماما متصل قرار میگیره
درست متوجه شدم؟
نه الزاما .میتونید بعد از لایه کانولوشن هم قرار بدید.
ممنون از لطفتون
...