به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام
از انجایی که اطلاع دارم CNN فیچرهای رو از پایین ترین سطح یعنی لبه ها و منحنی ها و ... درمیاورد تا اینکه به سطح انتزاعی بالاتری برسد و این فیچرها طبق یک سری تصاویر که همان دیتاست هستند بدست میایند
سوال اول :
حالا در HOG ، که فیچرهای بصورت دستی حساب میشوند آیا اینجا هم طبق دیتاست فیچرها درآورده میشود یا اینکه یک استراتژی هست برای تمامی تصاویر ، تا جایی که اطلاع دارم بلاخره این فیچرها یادگیرنده نیستند پس نباید دیتاست اینجا دخیل باشد درسته ؟ و اینکه سطح انتزاعی فیچرها در اینجا در چه حدی هست ؟
سوال دوم :
وقتی یک CNN روی یک دیتاستی مثله ImageNet ترین میشه که در واقع هیچ دیتاستی به اندازه این بزرگ نیست فکر کنم 14 میلیون تصویر داره حالا بعد از اینکه ترین شد میاییم روش تست میزنیم فرضا به دقت بالای 90 درصد میرسیم . چرا وقتی میاییم رو یه دیتاست دیگه تست میکنیم میبنیم به دقت فرضا 80 رسیده است چرا اینجوری میشه ؟ اگه واقع محتوای این دیتاست ها فرق دارند چرا نمیایند این دیتاست ها رو ترکیب کنند ؟

توسط (389 امتیاز)

1 پاسخ

0 امتیاز
 
بهترین پاسخ

سلام
فیچرهایی که بدست میارید با توجه به داده ورودی شما بدست میاد. برای همین وقتی شما روی دیتاست خیلی بزرگ و خیلی متنوعی مثل imagenet که دارای میلیون ها نمونه و هزاران دسته است ترین انجام میدید، بخاطر اینکه دسته های متنوعی وجود داره شبکه مجبور میشه ویژگی های متفاوتی برای هر دسته بدست بیاره حین آموزش.
برای همین هم هست که وقتی شما میایید از یک مدلی که قبلا روی ایمیجنت ترین شده روی دیتاست محدود خودتون استفاده اش میکنید میبینید نتایج خیلی خوبی میگرید . دلیلش بخاطروجود ویژگی های متنوعی هست که قبلا بدست اومده و در مرحله فاین تون شبکه شما از اونها براحتی استفاده میکنه. شبکه شما بصورت عادی با توجه به دیتای محدود شما اون ویژگی ها رو نمیتونه بخوبی یا اصلا بدست بیاره به همین دلیل دقت ها متفاوت هست.
اینکه چرا ترکیب نمیکنن! خب دلیلی وجود نداره وفتی شما مدلی از قبل آموزش دیده دارید و میتونید روی دیتاست خودتون فاین تون کنید چرا باید هزینه زیادی رو متحمل بشید در فاز ترین و همینطور در بحث متوازن کردن دیتای خودتون با دیتای دیتاست دیگه. در بعضی موارد دیتاست شما خیلی کوچیک هست و این امکان رو ندارید و مجبورید یا لاس رو دست بزنید تا تفاوت دیتای دیتاست خودتون رو با دیتاست بزرگی مثل ایمیجنت رو طوری جبران کنید یا از دیتای اونها کم کنید که عاقلانه نیست! یا اینکه زحمت بدید و با دیتا اگمنتیشن یا صرف وقت و هزینه زیاد دیتای جدید تولید کنید!
با فاین تون نیازی به دردسرهای بالا نیست.

توسط (4.3k امتیاز)
انتخاب شده توسط
...