با توجه که دانش بنده
با توجه به این نکته که آپدیت شدن هر نورون به خطای برگشت داده شده از لایه بعدی (دلتا) و مقدار خروجی لایه فعلی بستگی دارد. می توان اینگونه استدلال کرد که در صورتی که وزنها رو همگی صفر بدیم هیچ یک از وزن ها آپدیت نشده و در نتیجه هیچ تغییری در شبکه ایجاد نخواهد شد. حال اگر همه وزنها رو مثل هم قرار بدیم اونوقت مقادیر feature map ها مثل هم شده و تا لایه کلاسبندی هم همه مثل هم خواهند بود. و ضرایب فیلتر ها در هر لایه همگی با هم و با مقداری برابر تغییر خواهند کرد و در نتیجه فیلتر ها در هر لایه مثل هم خواهند شد.
ولی در این مورد که مثلا درهمه لایه ها فیلترهایی با وزن های رندم داریم و فقط 2 فیلتراز لایه اول با وزن های برابر مقدار دهی اولیه شوند؛ بنظر بنده وزنها تغییر خواهند کرد چون مقدار خطای برگشت داده شده برای این دو فیلتر از لایه های انتهایی به لایه فعلی متفاوت خواهد بود.
البته همه این استدلالها در صورتی صادق است که از dropout استفاده نشود؛ چون dropout باعث ایجاد حالت تصادفی می شود