به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

+1 امتیاز

با سلام

شما در این مقاله ظاهرا گفتین که حذف لایه dropout باعث ساده تر شدن شبکه میشه و در دو حالت تست کردین. یکی با Dropout و بدون data-augmentation و یکی دیگه بدون Dropout و با data-augmentation

تا اونجا که من میدونم لایه Dropout برای حل مشکل Over-fitting استفاده میشه. شما Over-fitting رو چجوری حل کردین؟

چجوری یک شبکه دلخواه رو compress کنیم؟

آیا کد اتون در Github موجود هست؟

توسط (143 امتیاز)

1 پاسخ

+1 امتیاز

سلام
ورژنی که از مقاله وجود داره یه Draft اولیه از اون هست.
انشاءالله آپدیت جدیدش رو طی چند روز آینده قرار میدم . همون رو چک کنید کدهای گیتهابش هم از طریق خود مقاله قابل دسترس خواهد بود.
(دلیل اینکه آپدیتش تا بحال قرار نگرفت بخاطر شرکت تو دوتا کنفرانس اخیر بود که از اقبال خوب یا بد ما به هیچکدومش دقیقه نود نرسیدیم!)
هم تکست و هم مطالب تغییر نسبتا زیادی کردن .
انشاءالله انتهای هفته آینده چک کنید باید مطالب جدید رو بتونید ببینید.

(در مورد سوالتون هم اصلا بحث حذف دراپ اوت نبوده و نیست. من یادم نمیاد جایی در مقاله چنین حرفی زده باشم. هرچند اون متن مربوط به تقریبا 1 سال پیش میشه و الان مطلب خیلی بازتر شده . یعنی سعی بر این بوده که بجای یه مقاله تکنیکال صرف یکسری توضیحات بیشتر در مورد معماری و اینکه چه اتفاقی می افته و چطور باید پیش رفت ارائه بشه. مقاله رو بخونید متوجه میشید.)

نسخه جدید برنامه در آرکایو قرار گرفت میتونید از اینجا ببینید

توسط (4.3k امتیاز)
من اینجا رو دیدم اونو نوشتم:

We tried two different configurations of our architecture, one with dropout and no data-augmentation and another one without dropout and using data-augmentation. We name them Arch1 and Arch2 respectively

در کپشن شکل سه هم اینو نوشته

The non-dropout version is used in new tests with data-augmentation. The drop-out version was used on experiments without data-augmentation. The exclusion of dropout significantly increased the performance in augmented version, but may not perform the same for all scenarios, that’s the reason we included the base version with dropout. Another variation of the architecture with dropout is to use dropout layer after each layer, which we are currently testing.

من البته سریع خوندم ولی مقاله جالبیه.
سلام . نسخه جدید در آرکایو قرار گرفته میتونید چک کنید. همینطور مدلها هم لینکش قرار گرفته
ممنون. در حالت کلی شرایط مقاله گذاشتن اونجا به چه شکل هستش؟
سلام. نکته خاصی نداره . قوائد کلی رو رعایت کنید  سابمیت میکنید بعد یک چک اولیه میشه مشکلی نداشته باشه  سابمیت میشه.
...