به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

سلام

ببخشید آیا امکان استفاده از prelu (parametric relu) در تنسورفلو وجود دارد؟ چگونه و با چه دستوری؟

سپاسگزارم

توسط (100 امتیاز)
ویرایش شده توسط

1 پاسخ

+1 امتیاز

سلام
اگه خودتون نمی خواید پیادش کنید، می تونید از لایه PReLU کراس استفاده کنید که الان دیگه جز repository اصلی تنسورفلو شده

https://www.tensorflow.org/api_docs/python/tf/keras/layers/PReLU

توسط (1.6k امتیاز)
سپاس از جوابتون.

حقیقتش قبل اینکه این سوال رو مطرح کنم یکم تو گوگل جستجو کردم و اتفاقا این لینکی که فرستادید رو دیدم. ولی متاسفانه نتونستم ازش استفاده کنم. پارامترهای ورودی رو باید چی قرار بدم؟ آیا نیاز به import کتابخانه خاصی هست؟

سپاسگزارم
خواهش میکنم
اگه از ورژن جدید تنسورفلو استفاده میکنید، همه چیز داخل قسمتهای مختلفش هست
اما اگه از ورژنهای قبلی استفاده می کنید، باید keras رو هم نصب کنید
در مورد import هم مثلا اگه از keras استفاده می کنید فقط باید بدونید که PReLU توی keras.layers ه
وقتی هم از keras استفاده می کنید، PReLU رو می تونید مثل یه لایه معمولی به مدلتون اضافه کنید. مثلا:
model.add(PReLU())

اگه فقط از تنسورفلو خالص هم استفاده می کنید، پیاده سازی prelu اصلا سخت نیست و می تونید یه متغیر(اسکالر) تعریف کنید و در خروجی relu معمولی ضرب کنید.
این کد از خوده keras رو هم می تونید چک کنید:
https://github.com/fchollet/keras/blob/master/keras/layers/advanced_activations.py#L49
...