Члены группы: Мохаммед АЛИ, Айбюке Ялчинер, Хатиче Акар.

На прошлой неделе мы провели небольшое исследование, чтобы получить больше точность. И мы нашли несколько шагов, как показано ниже:

  • Добавление дополнительных слоев
  • Некоторые навыки обработки изображений
  • Изменение параметров сверточной нейронной сети
  • Добавление дополнительных скрытых слоев в многослойную нейронную сеть с прямой связью, которая находится в конце нейронной сети.
  • Сбор дополнительных обучающих данных

Вот некоторые стратегии, которые мы нашли.

На этой неделе мы начали применять найденные стратегии одну за другой. Для начала мы используем возможности обработки изображений и меняем структуру сверточной нейронной сети. Вспомним структуру базовой сверточной нейронной сети.

На рисунке 1 показана структура нашей базовой сверточной нейронной сети, с которой мы получили точность 56,8. Мы используем 50 в качестве размера партии и 5 эпох. Мы используем функции ReLU и Softmax в качестве функции активации.

Рисунок 2 — это структура нашей новой сверточной нейронной сети. В этой структуре мы используем некоторые навыки обработки изображений и убрали некоторые слои из первой структуры на рисунке 1. Мы используем 4 набора для каждой эпохи, и у нас есть 100 эпох. И мы используем функции ReLU и Sigmoid в качестве функции активации.

Точность моделей показана на рисунке 3. Хотя на рисунке 2 меньше слоев, чем на рисунке 1, он дает большую точность и требует меньше времени. Поэтому с этого момента мы будем продолжать с рисунка 2 вместо рисунка 1.

Наше второе испытание — добавление выпадающих слоев. Как мы обнаружили, добавление выпадающих слоев повышает точность, но точность снижается, а не повышается. Итак, мы видим, что нет никаких положительных эффектов от добавления выпадающих слоев. Точность с выпадающими слоями составляет 55,19, поэтому мы игнорируем эту ситуацию.

И как еще один вариант, мы собираем еще немного данных, а затем применяем их с той же структурой. Из-за большего количества изображений время больше, чем у других, но точность лучше, поэтому для нас это не так важно.

Наше четвертое испытание — редактирование наборов данных поезд — проверка — тест, добавление дополнительных слоев и игра с параметрами.

На рисунке 5 показана структура нашей новейшей сверточной нейронной сети. Мы добавляем в структуру еще 1 сверточный слой, еще 1 слой max pooling и еще 1 плотный слой. В дополнение к этому мы также добавляем в структуру 3 слоя пакетной нормализации и 3 слоя исключения. Кроме того, мы используем 128 в качестве размера партии, среднеквадратичную ошибку в качестве функции потерь. И мы используем «Адам» в качестве оптимизатора.

В конце этого испытания точность составляет 69,15, а потеря - 4,58 для нашего тестового набора данных.