به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

فرض کنید یک تصویر داریم به اندازه 100 در 100 معمولا بدین گونه هست که چند فیلتر 3 در 3 برای لایه ورودی در نظر میگیرند تا با عمل کانولوشن به چند feature map برسند. سوالم اینکه به نظر این feature map ها باید خیلی بهم نزدیک باشند چه استدلالی وجود داره که اینها با هم متفاوت باشند چون ورودی همه‌ی اونها یکی هست و فکر می‌کنم توی اصلاح وزن هم همینطور باشه. فقط تنها چیزی که میمونه اینکه مقادیر اولیه وزن‌ها یکی نبوده که اون هم بنظر میاد همه‌ی اون‌ها تقریبا به یک عدد همگرا بشند.

توسط (138 امتیاز)

1 پاسخ

0 امتیاز

سلام و درود
با انتخاب مقدار رندم برای مقادیر اولیه فیلتر ها مقادیر مختلفی برای feature map‌ها بوجود می آورد و در لایه های بعد با اعمال فیلتر های لایه دوم که آنها هم بطور رندم مقدار دهی شده اند مختلفی برای feature map‌های لایه دوم هم بوجود می آید. این عمل تا لایه نهایی و کلاسبندی ادامه دارد. و مقادیر رندم کلاسی را به تصادف به عنوان کلاس برتر معرفی می کنند با اعمال کلاس واقعی و محاسبه خطا و پس انتشار خطا وزن های فیلتر ها هر کدام در جهتی متفاوت حرکت خواهند کرد و با اعمال تصاویر بیشتر در روال ترین و در epoch های مختلف این وزن ها در جهت های محتلف (فیلتر های متفاوت) همگرا خواهند شد.

توسط (830 امتیاز)
یعنی متفاوت بودن دو فیلتر در یک مجموعه از فیلترها که سازنده‌ی لایه بعدی هست فقط و فقط به مقدار دهی اولیه بستگی داره. یعنی اگر به دو فیلتر مقدار یکسان داده بشه. پس از آموزش مقدار وزن‌های این دو فیلتر یکسان هستند.
با توجه که دانش بنده
با توجه به این نکته که آپدیت شدن هر نورون به خطای برگشت داده شده از لایه بعدی (دلتا) و مقدار خروجی لایه فعلی بستگی دارد. می توان اینگونه استدلال کرد که در صورتی که وزنها رو همگی صفر بدیم هیچ یک از وزن ها آپدیت نشده و در نتیجه هیچ تغییری در شبکه ایجاد نخواهد شد. حال اگر همه وزنها رو مثل هم قرار بدیم اونوقت مقادیر feature map ها مثل هم شده و تا لایه کلاسبندی هم همه مثل هم خواهند بود. و ضرایب فیلتر ها در هر لایه همگی با هم و با مقداری برابر تغییر خواهند کرد و در نتیجه فیلتر ها در هر لایه مثل هم خواهند شد.
 ولی در این مورد که مثلا درهمه  لایه ها فیلترهایی با وزن های رندم داریم و فقط 2 فیلتراز لایه اول با وزن های برابر مقدار دهی اولیه شوند؛  بنظر بنده وزنها تغییر خواهند کرد چون مقدار خطای برگشت داده شده برای این دو فیلتر از لایه های انتهایی به لایه فعلی متفاوت خواهد بود.
 البته همه این استدلالها در صورتی صادق است که از dropout استفاده نشود؛ چون dropout باعث ایجاد حالت تصادفی می شود
...