به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام. اصلا نمی دونم طرح این سوال درست هستش یا نه
تو اینترنت جستجو می کردم تا ببینم شبکه عصبی رو چطور به شکل خیلی ساده توضیح داده شده
یک محتوا پیدا کردم که شبکه عصبی با یک پارامتر ایجاد کرده بود.
مثلا نمرات دانش آموزشان
بعد شبکه قرار بود یاد بگیره که نمره قبول چه مقدار هستش و نمره رد چه مقدار
شبکه با یک ضریب خطا کم می تونست پیدا کنه. چون مقدار های وارد شده اینطوری بود

13 true
8 false
5 false
18 true

برای همین بین 8 و 13 رو نمی دونست درسته یا نه.
سوال اصلیم اینه
میخوام ببینم برای این مثال آیا گرادیان نزولی جواب میده
میخوام گرادیان نزولی رو یک مثال فوق العاده ساده پیاده کنم.
آیا برای این مثلا میشه
آیا یک فرمول ریاضی کلی داریم که روی تمامی مسائل حتی با یک پارامتر
دو پارامتر و بیشتر جواب بده برای حل شبکه عصبی.
با تشکر

توسط (104 امتیاز)
ویرایش شده توسط
یکم بیشتر توضیح بدید.. اگه با مثال بهتر میتونید منظورتون رو برسونید حتما این کارو بکنید. منظور شما از یک متغییر و ... چیه؟ (پست اصلی رو ویرایش کنید و توضیحات جدید رو بدید)
انجام دادم. ویرایش کردم

1 پاسخ

0 امتیاز
 
بهترین پاسخ

سلام
آیا گرادیان نزولی یا همون gradien descent جواب میده یا نه بله جواب میده .
در شبکه عصبی از یه اصلی استفاده میشه بنام empirical risk minimization که بصورت خلاصه یعنی مساله آموزش یک شبکه عصبی رو ما تبدیل میکنیم به یک مساله بهینه سازی یا optimization . یعنی ما قراره یکسری پارامتر پیدا کنیم که باعث کاهش ریسک (loss ) تابع هدف ما بشه .
زمانی هم که ما یه مساله بهینه سازی داشته باشیم میتونیم از الگوریتم های این حوزه استفاده کنیم .یکی از الگوریتمها همین Gradient descent هست.

توسط (4.3k امتیاز)
انتخاب شده توسط
آیا ممکنه برای همین سوال بالا یک قطعه کد مثال بزنید. ممنون میشم
مثال شما یه مثال ساده کلسیفیکیشن هست.(باینری- یعنی دوتا کلاس دارید درست و غلط). مثالها و نمونه کدهای خیلی زیادی تو اینترنت هست که میتونید ببینید .
به نظرم این میتونه برای مطالعه شما خوب باشه :
 http://iamtrask.github.io/2015/07/12/basic-python-network/
کد به زبان پایتون هست تا خوانایی بهتری داشته باشه البته به زبانهای دیگه هم هست.کافیه یه سرچ خیلی ساده کنید.
ممنون از پاسختون
الان تو این مثلا از sigmod استفاده کرده
یا همون gradien descent هستش
شما جوابی که در مورد گریدینت دیسنت من به سوال دیگه شما دادم رو خوب بخونید بنظرم خودتون متوجه میشید اگر نشدید بفرمایید.
سلام
با اجازه از متخصصین در این حوزه
تا اون جایی که من می دونم سیگمویید یک تابع است در واقع شما با این تابع خروجی را به ازای ورودی های در دسترس تخمین می زنید و هنگام پیاده سازی شبکه ما با یکسری پارامترها مثل وزن و تعداد لایه ها و تعداد نرون ها و... سرکار داریم و درواقع دنبال ساختاری هستیم که بین مقدار واقعی یا برچسب خروجی با مقدار تخمین زده شده با شبکه عصبی کم ترین اختلاف باشد، در واقع گرادیان نزولی یک روش پس انتشار و گام گام یک برای پیدا کردن کم ترین loss Function است.
این برداشت و فهم من از این دو عنوان بود اگر اشتباهی هست خوشحال می شم متخصصین در این سایت تصحیح بفرمایند
خوندم. ولی اینجا الان فقط این sigmod رو چرا اومد نفهمیدم
مگه نمیخواستم مشتق اول رو حساب کنیم
سرکار خانم رها اشاره کردن بنوعی . اما بطور خیلی خلاصه سیگموید یه تابع با مقادیر "اعشاری"(بین 0 و1) و "قابل مشتق گیری" هست و از اون برای ایجاد خاصیت غیرخطی بودن در شبکه استفاده میشه.بخش اعشاری این قابلیت رو بهش میده که بشه خروجیش رو بعنوان احتمال در نظر گرفت و بخش "قابل مشتق گیری" یا مشتق پذیر بودنش هم باعث میشه ما بتونیم از روشهایی مثل GD که نیازمند گرادیانت(مشتق) هستن استفاده کنیم .نکته تستی این تابع اینه که محاسبه مشتق اون خیلی ساده اس و براحتی محاسبه میشه.
(فقط یه نکته آخر:گرادیان نزولی پس انتشار نیست یه الگوریتم بهینه سازی تکراری مبتنی بر مشتق اول هست که در شبکه عصبی با استفاده از الگوریتم پس انتشار یا همون بک پراپگیشن کارش رو انجام میده)
بله کاملا درسته، منظور من گرادیان نزولی یک روش در پس انتشار می باشد که در جمله درست ننوشتم.
در واقع پس انتشار خطا یک الگوریتم است که این الگوریتم یک جستجو در فضای وزن ها انجام می دهد و ممکن است در مینیمم محلی گیر بیافتد که برای پرهیز از این که در مینیمم محلی گیر نیفتد از روش های مثل افزودن ممنتم، استفاده از گرادیان نزولی و ... استفاده می شود.
یا یک سوال جدید بپرسید یا اینکه سوال اصلی رو ویرایش کنید با اطلاعات جدید.
ممنون. چطور اینو حذفش کنم.
یک سوال جدید پرسیدم
حذف شد.میتونید سوال کنید.
...