Я пытаюсь понять, в чем разница между этой моделью, описанной здесь, следующий:
from keras.layers import Input, LSTM, RepeatVector
from keras.models import Model
inputs = Input(shape=(timesteps, input_dim))
encoded = LSTM(latent_dim)(inputs)
decoded = RepeatVector(timesteps)(encoded)
decoded = LSTM(input_dim, return_sequences=True)(decoded)
sequence_autoencoder = Model(inputs, decoded)
encoder = Model(inputs, encoded)
и описанная здесь модель последовательности для последовательности второе описание
В чем разница ? У первого есть RepeatVector, а у второго его нет? Разве первая модель не принимает скрытое состояние декодеров в качестве начального состояния для прогноза?
Есть ли документ, описывающий первый и второй?