به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام عرض ادب
دوستانی که به شبکه های دیپ تسلط کافی دارند لطف کنند به سوالات جواب دهند
1- فرضا الکس نت را در نظر بگیریم و از لایه های کانالوشن اولیه که شامل لبه ها و رنگ ها و ... هست تا اینکه به لایه ها بالاتر فرضا تا 5 امین لایه
سوال : همان طور که برای 1000 کلاس ترین شده است در اخرین لایه های کانلوشن قبل از لایه های تمام اتصال ، در این فیچرمپ ها بیشتر چه مشخصه هایی از آبجکت ها نمایان میشود منظورم اینکه این فیچرمپ ها چه بخش هایی از آبجکت ها رو ببینید فعال میشوند ؟ فرضا به سر گربه یا تایر ماشین و ... ؟ این فیچر مپ ها به بخش های دیگه از آبجکت ها مثلا دم گربه یا گوش گربه و ... حساس نیستند ؟ اینها در این لایه قرار میگیرند یا در لایه های پایین تر از خودشون ؟ منظورم اینکه در اخرین لایه کانالوشن قبل از لایه اتصال کامل ، به تمامی بخش های ابجکت ها حساس نیستند یعنی یکجا به کل ( تمام بخش های ) مثلا یک گربه حساس باشند یا تمامی بخش هایی یک ماشین و .... ؟ اگه جواب بله هست پس چرا بعدش از لایه های تمام اتصال استفاده میکنیم نمیشد مستقیما این رو به softmax به نوعی اتصال کرد ؟ چیزی که خودم درک میکنم اینکه لایه های اخر کانالوشن ها هر کدام به یک بخشی از آبجکت ها حساس هستند و سپس با استفاده از این لایه های تمام اتصال اون تک تک بخش های یک آبجکت بهم بنوعی متصل میشوند و بعدش به softmax
آیا این لایه های تمام اتصال کارشون فقط چیندش بخش های یک آبجکت کنار هم هست تا یک آبجکت کامل تشکیل بشه بعدش softmax تصمیم بگیره این ابجکت مورد نظر چی هست . اینجوری هست؟

توسط (389 امتیاز)
ویرایش شده توسط
آقا محمد سلام. لطفا عناوین سوالات رو درست و کامل مشخص کن. الان این عنوان هیچ کمکی به هیچ کسی نمیکنه و بعدا هم کسی نمیتونه تو جستجوها استفاده ای ببره از سوال شما.

2 پاسخ

+1 امتیاز

سلام و درود
با توجه به اطلاعاتی که بنده دارم: همون طور که خودتون میدونید تولایه اول فیچر های پایه (تکستون ها) یاد گرفته می شوند و با کنار هم قرار گرفتن این فیچر ها در لایه های بالاتر آبجکت ها یا قسمتی از آبجکت ها شکل داده می شوند. مثلا تکست ها چون فقط از خطوط راست و خمیده (که فیلتر های پایه که در لایه اول قرار دارند آنها را تشخیص میدهند) تشکیل شده اند در لایه دوم به راحتی میشه اونها رو تشخیص داد. ولی در مورد آبجکت های پیچیده تر ممکن است لازم باشد تا چندین لایه جلوتر برویم تا با کنار هم قرار گرفتن اونها اون آبجکت را بتوان تشخیص داد. حتی ممکن است در لایه آخر (قبل از fc) آبجکت مورد نظر ما دارای فیچر هایی باشد که بایستی با قرار دادن لایه تمام متصل آن را در کنار هم جمع کرد و آبجکت را شناسایی کرد. به عبارت دیگه فرض کنید آبجکت یک از مثلث و دایره تشکیل شده است آبجکت دو از مثلت و مربع و آبجکت سه از مربع و دایره - با این حال کافیست آخرین لایه کانولوشن سه آبجکت مثلت و دایره و مربع رو تشخیص دهند. آونوقت لایه کلاسبندی این ویژگی ها رو به آبجکت یک و دو سه متصل می کنند.

چیندش! :ی

توسط (830 امتیاز)
+1 امتیاز

سلام .
وجود لایه تمام متصل در انتهای شبکه ضروری نیست. اون یه انتخاب از طرف طراحه . در ابتدا به شبکه کانلووشن اینطوری نگاه میکردن که یکسری لایه کانولوشن داریم که کار فیچرلرنینگ و فیچراکسترکشن انجام میشه و نهایتا ما یک شبکه عصبی معمولی قرار میدیم که روی فیچرهای بدست اومده از مرحله قبل بیاد پردازش انجام بده و بعددسته بندی انجام بشه . (یعنی در اصل یک شبکه کانولوشن و یک شبکه عصبی مصنوعی mlp میدیدن (دید جداگانه) )
الان عموما اینطور فکر و عمل نمیشه . شما میتونید خیلی راحت بدون اینکه حتی یک لایه فولی کانکتد داشته باشید شبکه رو طراحی کنید.
معمولا بعد لایه چهارم و پنجم شما دقت کنید میبینید که مفاهیم سطح بالا یادگرفته میشن (البته همونطور که جناب نصیری خوب اشاره کردن این وابسته به مساله اس ) و طی لایه های بعدی ترکیب این ویژگی ها و حتی یادگرفتن دوباره بعضی از این ویژگی هاست که توسعه پیدا میکنه و انجام میشه . برای همین شما میتونید خیلی راحت خروجی لایه کانولوشن رو بدید به یک دسته بند بدون اینکه نیازی به لایه تماما متصل داشته باشید. اگر دوست دارید حتما انتهای شبکه یک فیچر وکتور داشته باشید باز میتونید فیچرمپ نهایی رو (اگر اندازه 1x1 نداره) بیایید با global pooling (average ,max) به یک فیچروکتور تبدیل کنید.

ضمنا یک نکته کوتاه رو اخر بگم اینه که در شبکه های عصبی ما بحث distributed representation رو داریم که جناب نصیری خوب اشاره کردن منتها این مساله هیچ ارتباطی به وجود لایه فولی کانکتد نداره . یعنی اینطوری نیست که اگر لایه فولی کانکتد نباشه خدشه ای به این مساله وارد بشه و یا تو این بحث به مشکل بر بخورن. این مساله بخودی خود در شبکه وجود داره و بصورت پویا در حین اموزش توسعه پیدا میکنه. حالا میخواد لایه تماما متصل باشه اون انتها یا نه .

توسط (4.3k امتیاز)
سلام و عرض ادب.  یا میتوان در فاین تیون لایه تمام متصل را حذف نمود یا خیر
سلام . تونستن بله میتونید اما باید با توجه به میزان داده و شباهتش با دیتاستتون باشه. نشه کلی لایه رو انتخاب کنید برای فاین تون بعد دیتای کافی نداشته باشید اینطور دقتتون بدتر میشه. در مورد جایگزینی با معادل کانولوشنیش هم این داستان صادقه.
...