به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

با عرض سلام و احترام
من داشتم معماری alexnet رو مطالعه میکردم دیدم تو این معماری اندازه عمق هر فیلتر در لایه های کانولوشن دو و چهار و پنج نصف kernel لایه قبلشه . مثلا لایه اول 96 kernel داره ولی فیلتر لایه دوم 4855 میباشد یعنی عمق فیلترهای این لایه نصف kernel لایه قبل از آن است این اتفاق در لایه های 4 و 5 هم به همین گونه است
اگر ممکته دلیلش رو توضیح بدید
با تشکر

توسط (149 امتیاز)
برچسب گذاری دوباره توسط

1 پاسخ

0 امتیاز

سلام . سوالتون واضح نیست .
لطفا موقع نگارش یکم بیشتر دقت کنید و واضح بنویسید . الان همون خط اول اصلا مشخص نیست چی نوشتید آدم باید دو سه بار بخونه تا متوجه بشه منظور چیه!
دقت کنید که الکس نت تعداد فیلترهاش بصورت صعودی افزایش پیدا میکنه . لایه اول 96 لایه دوم 256 لایه سوم 384 و الی اخر.
این معماری الکس نت هست در کفی بعنوان مثال :

در لایه قبل fc از تعداد 256 استفاده شده که کمتر از لایه قبلی هست. چندتا دلیل برای این کار میشه نام برد. بعضی ها صرفا قبل از یک لایه سنگین که محاسبات زیادی داره با این کار از سربار محاسباتی کم میکنن . از طرفی میشه این عمل رو بعنوان مثال برای رسیدن به یک خلاصه ای از مهمترین ویژگی های از مرحله قبل در نظر گرفت.
در معماری هایی مثل گوگل نت ، اسکویز نت و رزنت و بعضی معماری های دیگه هم ااینو داریم که اونجا به bottleneck معروف هست.
نکته دیگه هم که هست اینه که این روش باعث اجبار شبکه به یادگیری ویژگی های خوب هم میشه . یعنی شما در یک لایه تعداد فیچرمپها زیاد هست در لایه بعدی سعی میکنید با کاهش نورون ها(فیلترها) مهمترین ها رو از مرحله قبل بدست بیارید دوباره در مرحله بعد اطلاعات قبلی بسط پیدا میکنن و این روال میتونه ادامه پیدا کنه . چیزی که در گوگل نت و رزنت و اسکویز نت کاملا استفاده شده .

توسط (4.3k امتیاز)
ممنون آقای حسن پور سوالمو بد پرسیدیم عینا متنشو میارم
...The first convolutional layer filters the 224*224*3 input image with 96 kernels
اینجا میگه عمق لایه اول 96تاس حالا ادامش راجب لایه دوم
The second convolutional layer takes as input the (response-normalized
and pooled) output of the first convolutional layer and filters it with 256 kernels of size 5 * 5*  48
اینجا میگه تو لایه دوم سایز فیلتر 5*5*48 ، سوالم اینه با توجه به اینکه کرنل لایه اول 96 تاس چرا فیلتر لایه دوم 5*5*96 نیست ؟ لایههای چهارم و پنجم هم اینجورین
ممنون
عذرخواهی میکنم بد سوال پرسیدم
...