Публикации по теме 'sequence-to-sequence'


Как подготовить входной набор для многомерной последовательности временных рядов LSTM для прогнозирования последовательности
Если вы имеете дело с многомерными данными временных рядов для прогнозирования значений на следующие 10 часов, вам нужно быть очень осторожным, особенно когда вы настраиваете наборы входных данных для обучения модели LSTM, а также для тестирования и проверки производительности модели. Ниже я демонстрирую, как предположить, что нужно настроить входы, чтобы помочь вам подготовить наборы входных данных на основе выбранного значения временного шага, как описано здесь . X_train = [] y_train =..

Вопросы по теме 'sequence-to-sequence'

Каковы детали модели Sequence-to-Sequence для суммирования текста?
Понятно, как обучать модель кодер-декодер трансляции: каждой исходной последовательности соответствует своя целевая последовательность (трансляция). Но в случае текстового реферата аннотация значительно короче статьи. Согласно Урваши Ханделвал,...
159 просмотров
schedule 12.06.2023

Разница между двумя моделями Sequence to Sequence Models (с RepeatVector и без него)
Я пытаюсь понять, в чем разница между этой моделью, описанной здесь , следующий: from keras.layers import Input, LSTM, RepeatVector from keras.models import Model inputs = Input(shape=(timesteps, input_dim)) encoded = LSTM(latent_dim)(inputs)...
697 просмотров
schedule 08.07.2022

Переменный ввод для последовательного автоэнкодера
Я реализовал декодер Sequence to Sequence Encoder, но у меня возникли проблемы с изменением моей целевой длины в прогнозе. Он работает для той же длины обучающей последовательности, но не для другой. Что мне нужно изменить? from keras.models...
1312 просмотров
schedule 24.07.2022

AssertionError: не удалось вычислить выходной тензор (softmax_layer / Identity: 0, shape = (None, 27, 8870), dtype = float32)
Я пытаюсь разработать чат-бота с механизмом внимания. но он дает такие ошибки. моя входная форма x_train - (None, 27), а выходная форма - (None, 27, 8870). Но я не могу правильно определить ошибки. def chatbot_model(embedding_size,...
1197 просмотров

Функция потерь с отрицательной логарифмической вероятностью дает потери, несмотря на идеальную точность
Я отлаживаю модель последовательностей и намеренно пытаюсь идеально подогнать небольшой набор данных из ~ 200 образцов (пары предложений длиной от 5 до 50). Я использую отрицательную логарифмическую потерю правдоподобия в pytorch. Я получаю низкие...
158 просмотров