به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام
با تشکر فراوان از مطالب آموزنده سایت یه سوال در مورد شبکه کانولوشن دارم
چرا تو این شبکه ها از چندتا لایه FC استفاده میشه؟
و چرا تمام این لایه های لایه فعالساز(Relu) دارن ب جز لایه آخر ؟
INPUT -> [CONV -> RELU -> POOL]*2 -> FC -> RELU -> FC

توسط (149 امتیاز)

1 پاسخ

+1 امتیاز

سلام
دلیل استفاده از چند لایه تمام متصل ایجاد بخش دسته بندی با توانایی تفکیک پذیری بالا هستش. وقتی یک شبکه عمیق کانولوشن تصویر به آخرین لایه کانولوشن می رسه در واقع یک بازنمایی کلی از تصویر رو ایجاد کرده و ویژگی ها آماده دسته بندی هستن. حالا شما فرض کن تعدادی ویژگی داری که می خوای با شبکه عصبی تمام متصل دسته بندی کنی. عموما یک شبکه دو لایه این ویژگی ها رو به خوبی دسته بندی می کنه.

توسط (535 امتیاز)
ممنون از پاسخ
...