به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام و وقت بخیر
با توجه به مطالعاتی که من انجام دادم متوجه شدم یکی از تقاوت های شبکه عصبی معمولی با نوع عمیق آن این است که وزن ها در نوع عمیق به اشتراک گذاشته می شوند. حالا سوال اول من اینه که دقیقا چه جوری این اشتراک گذاری انجام می شه؟ و آیا در مقدار دهی اولیه، این وزن ها همیشه به صورت تصادفی انتخاب می شوند.؟ و در ادامه چه بلایی بر سر آنها می آید؟
و تفاوت دیگر این دو نوع شبکه در تعداد لایه ها یا بعبارتی عمق آنهاست حالا می خوام بدونم چرا تعداد لایه ها زیاد می شوند ؟ آیا این تنها به این دلیل است که با زیاد شدن لایه ها جزیئات بشتری استخراج می شود و دقت بالاتر می رود . آیا این امکان وجود نداشت که با همان عمق کم به دقت بالایی رسید؟ و یا می توان گفت یکی از دلایلی که عمق زیاد می شود این است که وزن ها به اشتراک گذاشته شده اند ؟
با تشکر

توسط (219 امتیاز)

1 پاسخ

+1 امتیاز
 
بهترین پاسخ

فرق بین شبکه عصبی معمولی با عمیق در اشتراک وزن نیست و خیلی مسائل دیگه وجودداره .
در مورد اشتراک وزن که یکی از خصائص شبکه عصبی کانولوشن هست تو سایت توضیحات داده شده لطفا آموزش شبکه کانولوشن رو بخونید.
مقداردهی اولیه همیشه بصورت تصادفی انجام میشه و در ادامه با آموزش این وزنها مقادیرشون تغییر میکنه تا نهایتا به مقدار بهینه برسن برای کار مدنظر ما.
تعداد لایه زیاد باعث ایجاد سطوح انتزاع بیشتر و سطح بالاتری میشه . این ویژگی ها سلسله مراتبی هستن برای همین هم هرچه بیشتر باشه (البته تا یه حد خاصی ) اطلاعات سطح بالاتر ارائه میکنن . در لایه اول اطلاعات در مورد لبه ها و ویژگی های سطح پایین بدست میاد. مبتنی بر این ویژگی ها ، در سطح بعدی ویژگی سطح بالاتر ایجاد میشه مثلا خطوط و توده ها ، باز بر اساس این سطح، در سطح بالاتر ویژگی هایی مثل مثلا چشم بینی لب و... بدست میاد و همینطور الی اخر .(این مثال در مورد چهره بود میتونید بسطش بدید به مسائل مختلف)
پس لایه بیشتر = اطلاعات یا بقول شما جزییات سطح بالای بیشتر
نه با عمق کم نمیشه رسید. حتی اگه شبکه رو خیلی عریض کنید کارایی یکسان بدست نمیارید.
عمق ربطی به وزن مشترک نداره .اما میشه گفت اشتراک وزن تاثیر مثبتی در بوجود اوردن امکان عمیقتر کردن شبکه ها داشته و داره.

توسط (4.3k امتیاز)
انتخاب شده توسط
...