سلام
از نظر امکان انجامش که شدنیه، اما چه نیاز باشه کاهش بدید چه افزایش، برای هر کدوم باید به چندتا مورد حواستون باشه
برای افزایش، مثلا اگه تعداد اولیه feature map ها 1000 بوده و شما بخواید این عدد بشه 2000 تا، برای لایه فعلی، باید وزن نورون هایی که این feature map های جدید رو حساب می کنن به صورت رندوم انتخاب بشن (مگه اینکه ایده داشته باشید که وزنها جوره دیگه ای ست بشه) و این feature map ها باید از اول آموزش داده بشن. حالا خوده این feature map ها یا نورون هایی که جدید اضافه کردید در کنار چیزایی هستن که قبلا آموزش داده شدن (توی همون لایه) پس برای آموزش جدید باید learning rate های مختلفی هم انتخاب کنید که هم از نظر سرعت آموزش، هم از نظر دقت به نتیجه مطلوب برسید
و نکته بعدی اینه که در لایه بعدی هم اگه فیلترها به تعداد عمق حساسن(که معمولا هستن)، باید تغییر داده بشه
یعنی مثلا قبلا فیلترهای لایه بعد 3x3x1000 بودن، اما الان باید 3x3x2000 باشن. این تنها راه ممکنش نیست، مثلا می تونید بگید من نمی خوام دست به لایه بعد بزنم و شبکه رو 2 تا مسیر می کنم تا تعداد فیلترها لایه تغییر نکنه که کار خیلی سر راستی هم نیست و ممکنه تغییرات تا آخر شبکه کشیده بشه
در مورد کاهش تعداد feature map ها هم مشکلات خودش وجود داره، مثلا شما می خواید 1000 تا بشه 500 تا، خب سوال اینه که چه طوری این 500 تا انتخاب بشن از بین 1000 تا؟ می تونید از روشهای تحلیل لایه ها استفاده کنید که مثلا کدوم لایه تاثیر کمتری داره روی خروجی و حذفش کنیم (شبیه عملیات pruning) یا کارهای دیگه
این چیزایی که گفتم کلی بود. اما اگه منظورتون از کرنل لایه آخر، لایه logit هست، معمولا اینطوری عمل میشه که این لایه حذف میشه و یه لایه کاملا جدید با تعداد جدید (مثلا 4096) گذاشته میشه که به تعداد کلاسها باشه و حداقل الان یادم نیست کسی اومده باشه بگه خب الان ما 2048 تا داریم، همشو پاک نکنیم، اینا به درد می خوره، اینا رو نگه داریم، این جدیدا رو هم بهش اضافه کنیم بشه 4096 یا برعکس. به نظر ایده جالبی برای آزمایش میاد