به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

0 امتیاز

با سلام

با توجه به ساختار شبکه های عصبی مصنوعی مبنی بر استفاده از مقادیر اولیه برای وزن‌ها، نمونه برداری تصادفی از داده‌ها برای تفکیک به تست و آموزش و ... معمولا خروجی شبکه در تکرارها و آموزش‌های مختلف یکسان نخواهد بود. یک راه اولیه میانگین گرفتن از خروجی اجراهای مختلف شبکه در مدل نهایی است. اما آیا راهکار روشنی برای کاهش نوسانات ذای در خروجی نهایی وجود دارد؟ من تا الان فقط استفاده از مدل های مبتنی بر ensemble learning را به عنوان یک راه حل پیدا کرده ام!
مساله من پیدا کردن یک شبکه عصبی پایدار برای حل مساله برازش است.
با احترام

سوال شده توسط (102 امتیاز)

1 پاسخ

+1 امتیاز
 
بهترین پاسخ

سلام به نظرم این تفاوت از این میاد که فرآیند بهینه سازی در مقادیر بهینه محلی متفاوت گیر میکنه شاید هر چقدر جلوی این امر رو بگیرید و به خروجی سراسری نزدیک بشه خروجی مشابهت بیشتری داشته باشه
مثلا با Regularization مختلف موجود یا استفاده از دیتای بیشتر

پاسخ داده شده توسط (345 امتیاز)
انتخاب شده توسط
...