به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

+2 امتیاز

سلام دوستان، یه شبکه کوچیک (دولایه کانولوشن و دوتا پولینگ و یک کلاسبند) دارم. وقتی که شبکه برای آموزش روی gpu برده میشه تقریبا تمام رم gpu-2G رو میگیره و در این صورت نمیتونم بچ سایز رو زیاد بگیرم.

نکته1: آپشن های allow_soft_placement=True و allow_growth =True و هم تست کردم، اینا باعث میشن که تنسورفلو مینیمم رم لازم رو اشغال کنه ولی باز وقتی بچ رو بزرگ میگیرم خطای حافظه می ده.
نکته 2: دیتا ست رو هم با تعریف یک صف از فایل tfrecord میخونم.

پیشاپیش ممنون از راه حلتون.

توسط (830 امتیاز)
سلام
منم همین مشکل رو دارم با 1080ti و 11 گیگ هم نتونستم مقدار بچ رو زیاد بدم (مثلا روی  densenet از 16 بیشتر خطای حافظه میده !)
موندم بقیه چی دارن که  بچ رو 256 یا 512 میدن !!!
سلام
لطفا اطلاعات بیشتری همراه با log جزئیات مدل رو قرار بدید
ممنون

لطفا وارد شده یا عضو شوید تا بتوانید سوال بپرسید

...