خواهش میکنم
هر داده با بعدیش 1/200 ثانیه فاصله داره(ما می دونیم)، اما از دید پیاده سازی، lstm میدونه این دو تا عنصر یه اندیس با هم فاصله دارن. اگه 1000 هرتز هم بود، داده های ما 1/1000 با هم فاصله دارن اما بازم از دید lstm دو تا نمونه پشت سر هم، 1 اندیس با هم فاصله دارن
برای batch size هم می تونید فرض کنید، ما هر سیگنالمون 10 تا گام داره، هر نمونه از سیگنال(یعنی هر کدوم از اون گام ها) هم یه بردار 5 بعدیه، پس شبکه lstm ده تا گام روی ورودی طی میکنه که هر بار یه بردار 5 بعدی میگیره. یعنی اندازه ورودی (10,5) ه
حالا برای آموزش، ما هر دفعه مثلا 20 تا از این سیگنالها رو می دیم به شبکه که نتیجه رو حساب کنه و گرادیان خطا رو حساب کنیم و بقیه اتفاقاتی که توی آموزش هست
به این 20 می گن batch size، یعنی شما در کل برای هر چرخه آموزش، با داده هایی با بعد (20,10,5) کار میکنید که اولی batch size، دومی تعداد گام های زمانی و سومی تعداد ابعاد هر نمونه اس