ممنونم از پاسختون
منظورتون از عملیات تکراری چیه ؟ که باید از TimeDistributed استفاده کرد ؟
ممنون میشم راهنمایی کنید مثلا تو مدل زیر چطور لایه ی آخر رو جوری reshape کنم که از سمت چپ ستونی بشه داد به lstm
اینجا میخوام 19در5 باشه ورودی lstm
ترتیب ورودی همون طور که میخواستم هست الان یعنی از چپ به راست تصویر رو میده لایه lstm (دستور reshape ام درسته) ؟
خطا میده که 4 بعد داری میدی، چطور 4 بعد رو بدم به lstm که سه بعد میخواد ؟
from keras import regularizers
from keras.models import Sequential,Model
from keras.layers import Conv2D, MaxPooling2D,BatchNormalization,Conv3D,LSTM
from keras.layers import Activation, Dropout, Flatten, Dense,TimeDistributed,Bidirectional,LSTM,Reshape,TimeDistributed
#60
model = Sequential()
model.add(Conv2D(32, (3, 3), input_shape=(300, 800,1),padding='same' ))#,kernel_initializer='lecun_normal'
model.add(Activation('relu'))
#model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2, 2),padding='same'))
model.add(Dropout(0.2))#3
model.add(Conv2D(32, (3, 3),padding='same'))
model.add(Activation('relu'))
#model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2, 2),padding='same'))
model.add(Dropout(0.2))#3
model.add(Conv2D(16, (3, 3),padding='same'))
model.add(Activation('relu'))
#model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2, 2),padding='same'))
model.add(Dropout(0.2))#3
model.add(Conv2D(5, (3, 3),padding='same'))
model.add(Activation('relu'))
#model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2, 2),padding='same'))
model.add( (Dropout(0.2)))#3
model.add(Reshape((-1,19, 5)))
model.add(LSTM(19, input_shape=(19, 5), return_sequences=False, stateful=False))
model.summary()
با تشکر