Во-первых, давайте представим, как мы оцениваем способности трейдеров на платформе:

Чтобы предоставить пользователям реалистичную оценку плана каждого трейдера, конструкция будет классифицироваться в соответствии с торговым поведением трейдера, поэтому команда внедрит искусственный интеллект для эффективной классификации высокоэффективных трейдеров. Поскольку торговое поведение представляет собой последовательное изменение, команда будет использовать рекуррентную нейронную сеть (RNN) в качестве модели логического вывода системы. Выходные данные выходного слоя RNN или скрытого слоя могут быть возвращены на входной слой, или нейроны могут иметь только один слой и не иметь иерархического расположения. Каждый нейрон может быть связан друг с другом, что называется рекурсивной нейронной сетью. RNN применялась в бесчисленных областях и достигла весьма успешных результатов, таких как создание подписей к изображениям, языковой перевод и распознавание рукописного ввода. Однако, когда интервал и задержка во временном ряду прогноза очень велики, легко возникает проблема экспоненциального экспоненциального взрыва или исчезновения (проблема исчезающего градиента), Зепп Хохрайтер и Юрген Шмидхубер (1997) предложили долговременную память. нейронная сеть (LSTM) для решения этой проблемы.

Он создает входной слой временного фактора и заменяет исходные нейроны блоками памяти, чтобы увеличить входные и выходные ворота. В дополнение к исходному входному слою в качестве входных, как входной, так и выходной вентиль вводятся через сигмовидную функцию, которая может управлять входными и выходными значениями. Феликс А. Герс и Юрген Шмидхубер (2000) добавили шлюз забывания на основе исходной архитектуры, в общей сложности 4 шлюза, контролирующих вход или выход данных. Позже Zaremba и Sutskever (2014) добавили предыдущий вывод в качестве следующего ввода на основе этой архитектуры и изменили сигмовидную функцию на функцию tanh в качестве функции активации, чтобы улучшить возможности прогнозирования LSTM. Команда в основном использует долговременную и кратковременную память в качестве рекурсивной нейронной сети в качестве архитектуры последовательного ввода факторов. Его блочная память в основном относится к архитектуре LSTM Zaremba and Sutskever (2014), в которой два слоя блоков памяти используются в качестве входных факторов синхронизации. Модель показана на рисунке, и соответствующая формула выглядит следующим образом:

Где Xt — вход временного фактора; ht-1 — результат предыдущего вывода; Wxi, Wxf, Wxc, Wxo, Whi, Whf, Whc, Who, bi, bf, bc, bo — веса соответственно, ct — ячейка памяти; σ(x) — формула сигмовидной функции, как показано ниже. ψ(x) — функция тангенса, и формула выглядит следующим образом: