Основной модуль

  1. Встраивание событий, изученное нейронной тензорной сетью
  2. Долгое или короткое решение, полученное с помощью модели глубокого прогнозирования (простая производная от CNN)

Фон

Встраивание событий

мешки слов не имеют структурированных отношений

структурированные представления события, такие как (Actor = Microsoft, Action = sues, Object = Barnes & Noble), являются разреженными, что, возможно, приводит к несбалансированным обучающим данным для каждого триплета, что потенциально ограничивает возможности прогнозирования.

встраивание события направлено на точное сопоставление схожего события. (Для ознакомления с процессом обучения читайте дальше)

Модель глубокого прогнозирования

Адаптация CNN для использования встраивания событий с учетом долгосрочного (последний месяц), среднесрочного (последняя неделя), краткосрочного (последний день).

Детали модели

Нейронная тензорная сеть для встраивания обучающих событий

Состав

O1: актер

P: действие (сказуемое)

O2: объект

Ti: необходимо изучить тензор, моделирующий связь между Oi и P

Ri: ролевое встраивание

W: матрица общих весов Oi и P

вход: вложения слов Oi, P.

вывод: вложения событий, обратите внимание, что U следует той же операции уравнения, что и Ri.

Порядок обучения

Поврежденные события обозначаются как Er = (O1r, P, O2), где r представляет случайный O1 ~ из словаря слов D, не обязательно из набора акторов.

Обратное распространение используется для изучения модели, итерация установлена ​​на 500.

Модель Deep Predictive для изучения длинных и коротких решений

Состав

ввод: серия встраивания событий, разделенная на долгосрочные, среднесрочные и краткосрочные, расположенные в хронологическом порядке.

вывод: двоичный класс длинного или короткого решения

Свертка 3 событий, встраиваемых за один раз для долгосрочного и среднего срока, в частности, это одномерное ядро, сворачивающее скалярное произведение W1 с Uj:

после максимального объединения мы получили Vl и Vm.

Для краткосрочных встраиваний событий Us используется среднее встраивание событий, чтобы получить вектор признаков Vs.

Сеть прямого распространения используется для передачи вектора concat (Vl, Vm, Vs)

Процедура обучения

Ничего не разглашается, но стандартного БП будет достаточно.

Эксперименты

фиктивный трейдер инвестирует в эти акции на сумму 10 000 долларов по цене открытия. После покупки трейдер будет удерживать акции в течение одного дня. В течение периода удержания, если акция может принести прибыль в размере 2% или более, трейдер немедленно продает. В противном случае в конце дня трейдер продает акции по цене закрытия. Та же стратегия используется для продажи в шорт, если модель указывает, что цена отдельной акции будет снижаться. Если трейдер может купить акцию по цене на 1% ниже, чем цена продажи, он / она покупает акцию для покрытия. В противном случае трейдер покупает акции по цене закрытия.

данные

Встраивание событий: узнает только из заголовков новостей.

Индексы SP500 и курсы акций 15: yahoo finance

данные обучения: новости с октября по декабрь 1999 г.,

тестовые данные: новости за 40 дней с 3 января 2000 г.

полученные результаты

В контрольных экспериментах давайте сосредоточимся на лучшей модели, которой является EB-CNN: ввод событий и модель прогнозирования сверточной нейронной сети.

Помимо точности, MCC - это единственное число, используемое для описания матрицы путаницы истинных и ложных срабатываний и отрицаний.

Если вероятность восходящего тренда выше порогового значения β, он покупает акции на сумму 10 000 долларов. Если вероятность нисходящего тренда выше, чем β, она закрывает акции на сумму 10 000 долларов. В противном случае он не покупает и не сокращает акции.

порог β установлен на 0,7.

Частичный код: https://github.com/WenchenLi/news-title-stock-prediction-pytorch

использованная литература

  1. Дин, Сяо и др. Глубокое обучение для прогнозирования запасов на основе событий. IJCAI (2015). Бумага слайды сторонняя реализация (результат не подтвержден)