Масштабирование функций - важная часть любого конвейера машинного обучения. В процессе разработки собственных нейронных сетей, предназначенных для интерпретации EGM, мы протестировали различные функции масштабирования на реальных данных и представляем результаты ниже.

Используемые функции:

Без масштабирования - данные сохраняются в исходном формате.

Min-Max Scaling - эта функция масштабирует максимальное значение до 1, а минимальное значение - до -1.

Масштабирование макс. абс. - эта функция масштабирует максимальное абсолютное значение до 1 или -1.

Нормализация - эта функция принимает L2 норму выборки.

Преобразование мощности - применяет монотонное преобразование к данным. Монотонность означает, что функция всегда увеличивается или всегда уменьшается. В этом случае используется метод Йео-Джонсона.

Что мы хотим?

Есть несколько качеств, которые мы ищем в хорошем алгоритме масштабирования.

  1. Постоянный диапазон. Мы хотим убедиться, что значения после масштабирования попадают в один и тот же диапазон, в данном случае [-1,1].
  2. Извлечение функций. Мы хотим, чтобы особенности или закономерности, существующие в данных, стали более очевидными.
  3. Примерная эквивалентность. Я имею в виду, что после обработки данные должны иметь в основном тот же формат. При развертывании этой нейронной сети важно, чтобы данные, которые встречаются в естественных условиях, имели тот же общий формат, что и данные, на которых обучалась сеть.

Влияние методов масштабирования на реальные электрограммы

Без масштабирования

Это наша основа для продвижения вперед. Синий канал - это запись из предсердия сердца, а красный - из желудочка. Вышеуказанные сигналы являются исходными немасштабированными сигналами, представляющими пять состояний, в которых находится сердце. NSR означает нормальный синусовый ритм. VT - это желудочковая тахикардия, VF - желудочковая фибрилляция. ЖТ и ФЖ потенциально смертельны. СВТ - это категория аритмий, называемая суправентрикулярной тахикардией. Вы можете прочитать о них подробнее здесь. AF - это мерцание предсердий, а задний - трепетание предсердий. СВТ обычно не смертельны.

Мин. Макс. Масштабирование

Масштабированные сигналы Min Max не центрируются вокруг нуля. Мало того, что сигналы не сосредоточены вокруг нуля, они даже не сосредоточены вокруг постоянного значения. Центр предсердного канала на электрограмме NSR составляет -0,5. В предсердном канале в примере с фибрилляцией предсердий ноль составляет около 0,25. Эта изменчивость - не то, что мы ищем при предварительной обработке данных.

Масштабирование MaxAbs

Это преобразование, следуя тому же базовому формату масштабирования Min Max, работает значительно лучше. Поскольку он изменяет только максимальное абсолютное значение на единицу или отрицательное значение, он сохраняет центр около нуля. Применение одного скаляра также означает, что форма сигнала сохраняется. Он хорошо справляется с нашими тремя целями, гарантируя, что сигнал находится в одном диапазоне, что функции сохраняются и превращает разные эпизоды в сигналы с аналогичными характеристиками.

Нормализация

Нормализация обычно не применяется к наборам данных временных рядов, но я подумал, что было бы интересно посмотреть, как она работает. Как видите, он выполняет интересную работу. На рисунке слева показаны некоторые детали. Это преобразование похоже на преобразование MaxAbs в том, что оно сохраняет центр и форму данных. К сожалению, величина сигнала настолько мала, что изменения едва заметны. Этот метод масштабирования не позволяет сохранить видимые особенности из-за проблем с его величиной.

Преобразование мощности

Преобразование мощности изменяет форму сигналов. Лучшим примером этого является желудочковый канал нормального синусового ритма. Преобразование мощности увеличивает отрицательные пики сигнала. Это может быть очень полезно для увеличения деталей, которые можно упустить. Еще одно преимущество состоит в том, что сигналы, кажется, сосредоточены вокруг нуля.

С другой стороны, сигналы не привязаны к одним и тем же значениям. Максимальное значение варьируется от 3 до 6. Возможно, применение масштабирования MaxAbs могло бы превратить это в особенно мощное преобразование.

Выводы

Кажется, что Min Max Scaling и нормализация вообще не работают. Трансформация власти обладает интересными качествами, но сама по себе не работает. Метод масштабирования Max Abs, хотя и очень прост, обеспечивает все качества, которые мы ищем.