به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

با سلام و وقت بخیر
مقاله مربوط به DensNet رو مطالعه کردم ادعایی که این مقاله داره اینکه برای هر لایه نقشه های ویژگی همه لایه های قبلی به عنوان ورودی در نظر گرفته می شود و البته در میان اینها نیز از conv, polling و relu استفاده کرده . من متوجه نمی شم با اینکار چه طوری موفق به کاهش پارامترها شده . لطفا برام این مطلب را روشن نمایید.

توسط (219 امتیاز)

1 پاسخ

+2 امتیاز
 
بهترین پاسخ

سلام

همینطور که ذکر کردید، در شبکه‌های DenseNet، بلاک‌هایی وجود داره که در اون هر لایه، ورودی خودش رو از تمامی لایه‌های قبل از خودش میگیره. و بین هر دو تا بلاک Dense هم لایه‌هایی به اسم Transition وجود داره که عملیات Pooling و ... توش اتفاق می افته و سایز feature mapها کاهش پیدا می کنه و نرمالیزشن و ....

در عمل اگه به طور معمولی این ایده رو پیدا کنیم که هر لایه رو به تمامی لایه‌های قبلش وصل کنیم و این اتصال‌ها وزن داشته باشه، یعنی مثل ResNet خروجی‌ لایه‌های قبلی با هم فقط جمع نشن، و دقیقا تمامی خروجی ها رو بذاریم کنار هم بدیم به لایه فعلی، پارامترها سریعا زیاد میشه
اما ایده‌ای که مطرح شده اینه که به دلیل استفاده بهینه(!) از ویژگی‌هایی که توی هر لایه بدست اومده (feature reuse)، می تونیم تعداد feature mapهای هرلایه رو خیلی کاهش بدیم و به چیزی در حدود 12 تا برسیم. یعنی عرض شبکه رو خیلی کم می کنیم
و اینطوری پارامترهای شبکه خیلی کم میشه.

برای مقایسه ، توی شبکه VGG-16 ، اگه اشتباه نکنم تعداد feature map ها از 64 شروع میشه و به 512 هم در لایه‌های آخر می رسه ولی اینجا حتی به 64 تا هم نمی رسیم(فکر می‌کنم حداکثر تا 40 تا feature map توی مقاله مورد بحث قرار گرفته که نتایج بدست اومده هم قابل توجه هستش)، در عوض میتونیم عمق شبکه رو خیلی افزایش بدیم
و از نظر تئوری خیلی روی عمق شبکه بحث شده که مثلا شبکه‌هایی با عمق k، به طور نمایی از شبکه‌هایی با عمق k-1 قویتر هستن

توسط (1.6k امتیاز)
انتخاب شده توسط
خواهش میکنم
حرف شما در مورد 5 کاملا صحیح درسته :)
از صمیم قلب از شما و از تمامی دوستانی که این فعالیت علمی را آغاز نموده اید و بدون هیچ چشم داشتی به افراد جویای علم کمک می کنید سپاسگزارم.
اجرتون با خدا
ممنون میشم مشخصات مقاله ای که خوندید رو برام ارسال کنید nrahimi544@gmail.com
...