به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام
معنی و کار اتوانکدر متوجه شدم ولی این سوال برام پیش اومده چرا از اتوانکدر پشته ای استفاده می کنیم
کار اتوانکدر پشته ای چیست و در چه مواقعی از پشته استفاده می کنیم؟

مربوط به این پاسخ: Autoencoder چیست؟
توسط (100 امتیاز)
سلام
اون استک به معنای استک رایج در ساختمان داده نیست. منظور قرار دادن چند لایه پشت سر هم هست. و دلیل استفاده اش هم فراهم کردن نان لینیرتی بیشتر و رسیدن به سطوح انتزاع بیشتر و نهایتا بدست اوردن فیچرهای بهتر هست.

لطفا وارد شده یا عضو شوید تا بتوانید سوال بپرسید

...