به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

به نام خدا
با عرض سلام
عذرخواهی می کنم امکان دارد کار تابع ذیل را در تنسورفلو به بنده بگویید.
tf.nn.relu

توسط (102 امتیاز)

1 پاسخ

0 امتیاز
 
بهترین پاسخ

سلام
این تابع که معمولا به عنوان activation هر نورون در نظر گرفته میشه،یعنی بعد از اینکه هر ورودی در وزن خودش ضرب میشه و همه با هم جمع میشن (به علاوه بایاس) ، این حاصل به این تابع داده میشه تا خروجی نورون حساب بشه
قبلا خیلی از sigmoid استفاده میشده، اما الان تا جایی که امکان داشته باشه بیشتر از خانواده relu استفاده میشه چون گرادیان خوش فرمی دارن و مثل sigmoid در دو طرف طیف صفر نمیشن( به دلیل اشباع sigmoid)
تعریفش هم به این صورته :

relu(x) = max(0,x)

![تابع ReLu][1]
[1]: http://cs231n.github.io/assets/nn1/relu.jpeg

برای دیدن انواع مختلف این تابع مثل noisy relu یا leaky relu ، این صفحه ویکیپدیا رو ببینید

https://en.wikipedia.org/wiki/Rectifier_(neural_networks)

توسط (1.6k امتیاز)
انتخاب شده توسط
این نکته رو هم بد نیست بدونید که این تابع فقط اینطوری نبوده که چون بهتر از sigmoid هستش استفاده بشه
و در بعضی از شبکه‌ها پایه تئوری داره و در حقیقت تقریب اینه که شما بی نهایت سیگموید رو با شیفت‌های مختلف در فضا با هم جمع کنید که اگه اشتباه نکنم در حالت حدی به تابع softplus می رسید که تابع مشتق پذیر کامل همین ReLu هستش
...