به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

+1 امتیاز

در معماری شبکه LeNet 5، در هر بار Pooling کردن، باعث کاهش اندازه یا ابعاد feature maps میشه
و این باعث تغییر در تعداد وزن ها میشه
آیا این تغییر از رابطه خاصی پیروی میکنه؟!!
مخصوصا از چه رابطه ای در محاسبه وزن ها در لایه دوم استفاده میکنه؟!!

توسط (105 امتیاز)

2 پاسخ

+1 امتیاز

سلام .
اگه منظورتون از وزن ماتریس وزن باشه کاهش بعد ربطی به تعداد ماتریس وزنها نداره.
هر فیچرمپ تنها از لحاظ مکانی (طول و عرض) کاهش پیدا میکنه. و هر فیچرمپ هم یک ماتریس وزن داره.(برابر با اندازه کرنلی که مشخص کردید)
فرمولهای مورد نیاز برای محاسبه ابعاد و... در سایت داده شدن و توضیح کامل داده شده به لینک زیر مراجعه کنید اطلاعات مورد نیازتون رو پیدا میکنید
http://deeplearning.ir/آموزش-شبکه-کانولوشن-بخش-دوم/

توسط (4.3k امتیاز)
+1 امتیاز

ببینید فعلا تا الآن فرمول دقیق و مشخصی ارایه نشده و بحث بهینه سازی معماری های شبکه ها به صورت هوشمند و خودکار یه مبحث تحقیقاتی هستش.
برای درک دلیل معماری طراحی شبکه های ژرف باید چند نکته رو مد نظر داشته باشید. مثلا در شبکه های کانولوشن بر روی تصویر یکی از بحث هایی که برای طراحی لایه ها مطرح هستش بحث مفاهیم تصویر ورودی و همچنین اندازه تصویر ورودی هست. اندازه اجزای تصویر ورودی و مفاهیم این اجزا در انتخاب اندازه ناحیه های ادراکی تاثیر گذار هستن. همچنین میزان ویژگی های استخراجی از ناحیه های ادراکی به سطح ویژگی بازنمایی شده بستگی داره. یعنی در لایه های اول و کم عمق میزان عموما با توجه به خام بودن ویژگی های ورودی (تصویر خام) و اینکه در این لایه ها ویژگی هایی در حد فیلترهای خطی و لبه یابی بازنمایی می شه و همچنین با توجه به کوچک بودن ناحیه ادراکی ابعاد ویژگی ها هم کمتر هست. عموما هر چه لایه ها ژرف تر می شوند اندازه ناحیه ادراکی هم بزرگتر می شود و مفاهیم ویژگی های استخراجی نیز سطح بالاتر می شن. یعنی در واقع لایه ی ژرف تر از ویژگی های بازنمایی شده لایه ی کم عمق تر استفاده می کنه. پس بازنمایی سطح بالاتری داره و همچنین ناحیه ادراکی بزرگتر هست در نتیجه عموما افزایش ابعاد ویژگی به ازای ناحیه ادراکی را شاهد هستیم. در مورد بحث لایه های Pooling در بعضی از کارهای جدید استفاده از این لایه ها کنار گذاشته شده. یکی از عمده ترین دلایل استفاده از این لایه ها کاهش حجم داده ها به دلیل محدودیت سخت افزاری و نرم افزاری بوده. یعنی سخت افزارها حافظه پردازشی محدودی داشتن که تا الآن این مشکل تا حدودی رفع شده و همچنین از نظر امکانات حجم داده و همین طور روش آموزش دچار محدودیت بودن و در صورت افزایش بیش از اندازه ابعاد به مشکلاتی نظیر بیش برازش و یا انتشار خطا بر می خوردن. یکی دیگر از دلایل استفاده از Pooling بحث استقلال از جهت تصویر هستش. برای همین منظور تعیین اندازه فیلترهای این لایه وابستگی زیادی به ابعاد تصویر به نسبت اشیای داخلش داره. در نهایت مطالعه این منابع رو توصیه می کنم:
۱) Visualizing and Understanding Convolutional Networks : توضیح مفاهیم لایه های شبکه های کانولوشن
۲) CNNs آموزش مفاهیم شبکه های کانولوشن و ارتباط آنها با ساختار عصبی انسان (خیلی خلاصه)
۳) Deep Res شبکه های بسیار عمیق با توضیح مشکلات آموزش در شبکه های ژرف و انتشار خطا میان لایه ها

توسط (535 امتیاز)
...