به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

اگر به صورت حاشیه ای از خطای اوت اف مموری جان سالم به در برده باشید پیغام زیر را در اپک اول مشاهده می کنید:

: W tensorflow/core/common_runtime/bfc_allocator.cc:217] Allocator (GPU_0_bfc) ran out of memory trying to allocate 3.45GiB. The caller indicates that this is not a failure, but may mean that there could be performance gains if more memory is available

این وارنینگ در حقیقت خاطر نشان میکند که افزایش مموری افزای پرفورمنس را به دنبال خواهد داشت...
ایا میتوان گفت وابستگی مموری و سایز بچ منجر به این اتفاق خواهد شد؟

توسط (136 امتیاز)
ویرایش شده توسط

1 پاسخ

+1 امتیاز
 
بهترین پاسخ

این واژه «Performance» لزوما به معنی «دقت نهایی الگوریتم» نیستش. احتمالا منظور بهینگی روند کار باشه مثل افزایش سرعت در محاسبات و ...
اما جاهایی که افزایش حافظه می تونه روی دقت نهایی تاثیر گذار باشه جاهایی هست که ابعاد Mini-Batch روی اونها تاثیر گذار هستش مثل لایه های Batch-Normalization که در صورت کم بودن Mini-Batch این لایه نمی تونه نرمالیزیشن مناسبی انجام بده. برای اطلاعات بیشتر می تونید از مقاله زیر کمک بگیرید:

Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour: https://arxiv.org/abs/1706.02677

توسط (535 امتیاز)
انتخاب شده توسط
...