Публикации по теме 'sequence-to-sequence'
Как подготовить входной набор для многомерной последовательности временных рядов LSTM для прогнозирования последовательности
Если вы имеете дело с многомерными данными временных рядов для прогнозирования значений на следующие 10 часов, вам нужно быть очень осторожным, особенно когда вы настраиваете наборы входных данных для обучения модели LSTM, а также для тестирования и проверки производительности модели.
Ниже я демонстрирую, как предположить, что нужно настроить входы, чтобы помочь вам подготовить наборы входных данных на основе выбранного значения временного шага, как описано здесь . X_train = []
y_train =..
Вопросы по теме 'sequence-to-sequence'
Каковы детали модели Sequence-to-Sequence для суммирования текста?
Понятно, как обучать модель кодер-декодер трансляции: каждой исходной последовательности соответствует своя целевая последовательность (трансляция). Но в случае текстового реферата аннотация значительно короче статьи. Согласно Урваши Ханделвал,...
159 просмотров
schedule
12.06.2023
Разница между двумя моделями Sequence to Sequence Models (с RepeatVector и без него)
Я пытаюсь понять, в чем разница между этой моделью, описанной здесь , следующий:
from keras.layers import Input, LSTM, RepeatVector
from keras.models import Model
inputs = Input(shape=(timesteps, input_dim))
encoded = LSTM(latent_dim)(inputs)...
697 просмотров
schedule
08.07.2022
Переменный ввод для последовательного автоэнкодера
Я реализовал декодер Sequence to Sequence Encoder, но у меня возникли проблемы с изменением моей целевой длины в прогнозе. Он работает для той же длины обучающей последовательности, но не для другой. Что мне нужно изменить?
from keras.models...
1312 просмотров
schedule
24.07.2022
AssertionError: не удалось вычислить выходной тензор (softmax_layer / Identity: 0, shape = (None, 27, 8870), dtype = float32)
Я пытаюсь разработать чат-бота с механизмом внимания. но он дает такие ошибки. моя входная форма x_train - (None, 27), а выходная форма - (None, 27, 8870). Но я не могу правильно определить ошибки.
def chatbot_model(embedding_size,...
1197 просмотров
schedule
08.04.2022
Функция потерь с отрицательной логарифмической вероятностью дает потери, несмотря на идеальную точность
Я отлаживаю модель последовательностей и намеренно пытаюсь идеально подогнать небольшой набор данных из ~ 200 образцов (пары предложений длиной от 5 до 50). Я использую отрицательную логарифмическую потерю правдоподобия в pytorch. Я получаю низкие...
158 просмотров
schedule
05.11.2022