به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

+1 امتیاز

سلام و عرض ادب
با توجه به اینکه در آموزش گوگل نت از دو طبقه بند فرعی استفاده میشه و خروجی خطا ها به صورت وزن دار به خروجی اصلی جمع میشه، آیا برای فاین تیون آن نیز باید هر سه طبقه بند تصحیح و از سه لایه سافت مکس استفاده شود؟

توسط (211 امتیاز)
ویرایش شده توسط

1 پاسخ

0 امتیاز

سلام
بله باید اون لایه هایی که وارد softmaxwithloss میشن (در کفی) تعداد خروجی اونها رو با توجه به تعداد کلاسهاتون مشخص کنید.

توسط (4.3k امتیاز)
ممنون.
پس از قاین تیون کردن برای objective سه تا عدد میده که دو تا که مربوط به خروجی های فرعی است واگرا شده. آیا این مشکل به دلیل وزن دهی نامناسب رخ داده؟
اون لایه ها فقط در زمان ترینینگ فعال هستن تا بقول نویسنده ها باعث انتقال بهتر گرادیان بشن (میتونید حذف کنید حتی ) بعد از اینکه در نود اخر به دقت مناسب رسیدید در فایل deploy کلا اون لایه های فرعی رو حذف باید بکنید.
به هنگام فاین تیون نباید از اون دولایه فرعی خروجی بگیرم.؟ هر چند مقادیر objective نزدیک به هم دارند
در حین فاین تون هم باید فعال باشه(در فاین تون شما هم دارید ترین میکنید به هر حال پس از قائده ترینینگ پیروی میکنه) فقط در زمان دیپلوی دیگه سه تا خروجی نداشته باشید هرکدوم دقت بالاتری داد از همون استفاده کنید (معمولا بعد از تکرار مناسب همون نود اخر بهترین دقت رو میده)
من یک توضیحی بدم شما رو سردرگم نکنم . ببینید به اونها میگن auxilary classifier که قبل از معرفی بچ نرم گوگل اینکارو کرد تا گرادیان رو بتونه بهتر به لایه های اول منتقل کنه و نتیجه شبکه رو بهبود بده بعدا در ورژن سوم اینسپشن گزارش کردن که(به این مضمون که) فکر ما اشتباه بود و تاثیری ندارن. برای همین در فاز ترینینگ لحاظ میشن و در فاز تست حذف(معمولش اینه). اینکه واگرا میشن نباید این اتفاق بیوفته اونا هم باید مثل نود اخر بخوبی اموزش ببینن حالا به دقت اون نمیرسن عموما ولی قرار نیست دایورج کنن . شما در قدم اول نرخ یادگیری رو کاهش بدید و بعد چک کنید.
...