به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام دوستان عزیز من میخوام در زمینه بهینه سازی با دیپ لرنینگ کار کنم. امکانش هست چندین مقاله در زمینه بهینه سازی با دیپ لرنینگ هست رو بهم معرفی کنید. فرقی نداره بهینه سازی در چه زمینه ای باشه البته ترجیحا دوست دارم در زمینه خوشه بندی باشه. برای پروپژال میخوام کار کنم. متشکرم

توسط (100 امتیاز)

1 پاسخ

0 امتیاز

سلام
توی این زمینه یکی از کارهای خیلی جالبی که دیدم، بهینه سازی خوده شبکه با یه شبکه دیگه بوده
یعنی شبکه شما یاد میگیره که الگوریتم هایی شبیه SGD و این جور چیزا رو پیاده کنه. در واقع شبکه خوده الگوریتم بهینه سازی رو یاد می گیره و لزوما رفتاری شبیه به الگوریتم‌های قبلی نداره.

Learning to learn by gradient descent by gradient descent

اسم زیباییه، خودش کلی contribution محسوب میشه :)))

https://arxiv.org/abs/1606.04474

این مقاله هم در این زمینه جالبه. ایده این یکی اینه که هر لایه از شبکه بتونه به طور مجزا و موازی با بقیه لایه آموزش داده بشه. توی مقاله synthetic gradient معرفی شده که به نظرم با تغییرش میشه در زمینه بهینه‌سازی های دیگه هم ازش کمک گرفت

Decoupled Neural Interfaces using Synthetic Gradients

https://arxiv.org/abs/1608.05343

این یکی مقاله، اومده و یه سرچی روی توابع مختلف و رابطه های مختلف برای به روز رسانی وزنها انجام داده (کنترلش با یه شبکه RNNه و از RL هم استفاده شده) و در نهایت هم به دو تا الگوریتم PowerSign و AddSign رسیدن. رابطه خیلی جالب و الهام بخشی دارن به نظر، حداقل به نظر من و توصیه می کنم حتما این مقاله رو هم ببینید.

Neural Optimizer Search with Reinforcement Learning

https://arxiv.org/abs/1709.07417

در زمینه ای که مستقیما خوده شبکه بهینه سازی رو انجام نده اما در فرایند استفاده بشه، این مقاله یه نمونه خیلی خوبه که اومده به جای Gaussian process از شبکه برای تقریب احتمالات روی توابع استفاده کرده و بهینه سازی(که اینجا bayesian ه) رو انجام داده. مقاله جالبیه و به خصوص اگه قبلا با GP درگیر بودید حتما ارزش خوندن رو داره

Scalable Bayesian Optimization Using Deep Neural Networks

http://proceedings.mlr.press/v37/snoek15.pdf

در زمینه خوش‌بندی هم چیزی متاسفانه فعلا به ذهنم نمیرسه اما یه مورد خاص هست برای الگوریتم t-sne
توی الگوریتم t-sne یه مساله بهینه سازی برای embedding نقاط توی ابعاد پایین تر حل میشه
راستش من به جز برای visualization (که یکی از مهمترین هدف های t-sne ه) ازش استفاده دیگه ای نکردم، اما با فرض اینکه شما یه ایده در این زمینه دارید، خوده حل مساله بهینه سازی t-sne رو میشه با شبکه انجام داد. به نسبت هم ایده قدیمی محسوب میشه و با RBM و دوستان سالهای 2009 این کارو کرده. همین ایده رو می تونید برای embedding های دیگه هم گسترش بدید (که البته خیلی کار هم شده در این زمینه)

Learning a Parametric Embedding by Preserving Local Structure

http://proceedings.mlr.press/v5/maaten09a/maaten09a.pdf

=======================================================
چون سوالتون جالب بود و ما رو به وادی فکر و خیال برد :)) ، یه ایده به ذهنم رسید نمی دونم قبلا روش کار شده یا نه، یا اینکه اصلا چقدر می تونه جواب بده
اما برای clustering شاید بشه یه شبکه recurrent یا پیشرفته تر، چیزهایی مثل differential neural computer رو آموزش داد که همه نقاط رو بگیرن و مثلا بعد از تموم شدن ورودی، مراکز cluster ها رو تولید کنن(بر اساس یه معیار فاصله ای چیزی هم loss تعریف کنیم). یه جوری ایده Seq2Seq میشه که یه دنباله از نقاط رو میگیره و یه دنباله از نقاط دیگه که مراکز خوشه هان رو تولید می کنه اما به صورت unsupervised
برای اینکه راحت تر هم train بشه، میشه از curriculum استفاده کرد و مثلا اولش سیگنال supervised داشته باشیم و کاری کنیم که شبکه رفتار الگوریتم های ساده مثل kmeans رو تکرار کنه و توی چرخه‌های بعدی معیارهای سخت تر رو وارد کنیم
این ایده کاملا ساخته و پرداخته شده در عرض کمتر از یه دقیقس و اعتباری بهش نیس. اینو تاکید کردم که یهو تزتون رو بر اساس این ایده نذارید بعد ببینید جواب نداد ما رو مقصر بدونید D:

توسط (1.6k امتیاز)
ویرایش شده توسط
خیلی خیلی ممنونم ازتون. بسیار عالی بود. من چطور میتونم مقالاتی که در زمینه بهینه سازی با دیپ لرنینگ کار شده رو پیدا کنم. انگار کلا مقاله در این زمینه خیلی کمه. اگر امکانش سایتی و ژورنالی که در این زمینه کار میکنه رو بهم معرفی نمایید.  با تشکر
خواهش میکنم
مقاله Neural Optimizer Search رو هم یادم اومد اضافه کردم
در مورد اینکه کم کار شده، بله، چندتا دلیل هم به نظر میاد داشته باشه. یکی اینکه مسائل مربوط به بهینه‌سازی از مسائل سخت توی زمینه ریاضیاته و اثبات و بررسی رفتارهای توابع و الگوریتم ها خیلی جا مشکله حتی برای توابع convex دیگه چه برسه به توابعی که حتی درک درستی از رفتار اونها نداریم، مثل توابع خطای شبکه های deep. از طرف دیگه، طراحی خوده الگوریتم بهینه سازی با دست و توسط یه متخصص و با تحلیل های دقیق، طبق چیزی که گفتیم سخت حساب میشه. اینو داشته باشید، حالا می خوایم از شبکه عمیق که خودش و بهینه سازیش رو کامل درک نمی کنیم استفاده کنیم که بهینه سازی رو انجام بده
نمی گم که نشده و همینطور که می بینید انجامش هم دادن و اتفاقا چیزهای خیلی خوبی هم اتفاق افتاده اما به هر حال خیلی ها می ترسن برن این سمت. در کنار بحث تئوریش، بحث های محاسباتی هم هست، یعنی خیلی از مقالاتی که الان از سرچ های خیلی گسترده و از این کارهای جالب انجام میدن، ماله شرکت های بزرگه که کلی بودجه و سخت افزار برای انجام این نوع تحقیقات دارن. اگه همین بودجه در دست عموم جامعه علمی بود، مطمئن باشید خیلی زودتر از این حرفا این نوع ایده ها مطرح و انجام شده بود چون خیلی از کارهایی که شده از طریق brute force بدست اومده و brute force هم بدون داشتن کلی منبع محاسباتی وحشتناکه
اما هرچی دید ما باز تر میشه و به خصوص ساختارهای جدید و تئوری های جدید مطرح میشه، کاملا قابل پیش بینیه که این نوع موضوعات که تا میشه همه چیز رو خوده بهینه سازی پیدا کنه بیشتر میشه
از feature بگیر که الان قدرت deep حساب میشه تا طراحی ساختار خوده شبکه و الگوریتم بهینه سازی و پیدا کردن hyperparameter ها و ....
متاسفانه هم جایی رو نمی شناسم به طور خاص روی این موضوعات بحث کرده باشه، اما کنفرانس ICLR رو دنبال کنید حتما، خیلی از این نوع ایده ها اونجا مطرح میشه و از همین حالا به نظر میاد توی submission هایی که برای سال بعد هست چیزای جالبی ملت ارائه دادن
خیلی ممنونم ازت. مهندس جان یه بحثی هست اینه که میتونم ازrecurrent reinforcement learning  استفاده کنم و درواقع مدلی ارائه بدم برای این نوع از یادگیری که در بهینه سازی بشه ازش استفاده کرد به گونه ای که پرفرامنس اون مسئله بهنیه سازی بالاتر بره نیست به نمونه های بنچ مارک. اگه در مورد reinforcement learning هم اطلاعات و یا مقالات خوبی هست بهم معرفی کن. با سپاس فراوان از شما و آرزوی سلامتی و طول عمر با عزت
خواهش میکنم
منظورتون دقیقا از recurrent RL چیه؟
این لینک خیلی مطالب از RL رو کنار هم جمع کرده، می تونید برای اول کار از Tutorials یا کرسها شروع کنید
https://github.com/aikorea/awesome-rl
...