به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

+2 امتیاز

با سلام عرض ادب
دوستان کسی مرجع مناسبی برای مکانیزم attention داره ؟ و اینکه attention برای تصاویر بکار میره ؟ جواب های بهتری میده ؟ و آیا دیتاست های مخصوصی برای خودش داره ؟ یا اینکه برای هر دیتاستی که تصویر هست میشه بکار برد؟

توسط (389 امتیاز)

3 پاسخ

+2 امتیاز
 
بهترین پاسخ

سلام
یکی از پست های خیلی خوب در زمینه attention توی تصویر، این لینکه که اومده انواع attention از جمله گوسی و شبکه های transformer رو خیلی ساده با کدش توضیح داده

http://akosiorek.github.io/ml/2017/10/14/visual-attention.html

از نظر اینکه آیا جواب بهتری میده یا نه، تحلیل های خیلی زیادی در موردش هست اما جواب سطح بالاش به طور کلی بله اس
توی مباحث nlp و شبکه‌های recurrent که تقریبا جزو استانداردها شده.
از نظر تجربه شخصی، من توی semantic segmentation ازش استفاده کردم و نتیجه خیلی خوبی هم گرفتم
حالا اینکه از چه تکنینی استفاده کنید بسته به مساله و دید خودتون داره، و حتی می تونید کلی روشهای خلاقانه استفاده کنید

در مورد اینکه پرسیدید آیا میشه برای هر دیتاستی به کار برد، یکم سوال عجیبیه و به نظرم موردی باید بررسی بشه
اما شاید برای اول کار می تونید اینطوری بهش فکر کنید که مثلا dropout یا residual connection می تونه برای هر دیتاستی استفاده بشه؟ جوابش اینه که بهتره بپرسیم آیا این ابزارها کارایی مدل رو بهتر می کنن یا نه وگرنه استفاده کردنش توی مسائل مختلف امکان پذیره. attention هم همینطوره
بازم بسته به مساله خودتون داره اما فعلا attention به خاطر تاثیراتی که داشته خیلی مورد توجه و داره استفاده میشه و چون وارد کردنش به اکثر مدلها کار پیچیده ای هم نیس بهتره حتما تستش کنید

این پست رو هم ببینید خیلی جزئی تر از پست بالایی در مورد یه سری از مسائل مرتبط با attention توضیح داده

https://towardsdatascience.com/visual-attention-model-in-deep-learning-708813c2912c

توسط (1.6k امتیاز)
انتخاب شده توسط
+1 امتیاز

سلام منم دنبالش هستم احتمالا توی این هفته جستجو میکنم فعلا این پست رو پیدا کردم مقالات خوبی ارجاع داده

https://distill.pub/2016/augmented-rnns/

توسط (105 امتیاز)
0 امتیاز

مقاله اصلی اتنشن هم اینه:
https://arxiv.org/abs/1409.0473
که برای ترجمه ماشینی استفاده کرده من خودم تا اینو نخوندم شیر فهم نشدم

توسط (105 امتیاز)
...