Члены группы: Мохаммед АЛИ, Айбюке Ялчинер, Хатиче Акар.
На прошлой неделе мы провели небольшое исследование, чтобы получить больше точность. И мы нашли несколько шагов, как показано ниже:
- Добавление дополнительных слоев
- Некоторые навыки обработки изображений
- Изменение параметров сверточной нейронной сети
- Добавление дополнительных скрытых слоев в многослойную нейронную сеть с прямой связью, которая находится в конце нейронной сети.
- Сбор дополнительных обучающих данных
Вот некоторые стратегии, которые мы нашли.
На этой неделе мы начали применять найденные стратегии одну за другой. Для начала мы используем возможности обработки изображений и меняем структуру сверточной нейронной сети. Вспомним структуру базовой сверточной нейронной сети.
На рисунке 1 показана структура нашей базовой сверточной нейронной сети, с которой мы получили точность 56,8. Мы используем 50 в качестве размера партии и 5 эпох. Мы используем функции ReLU и Softmax в качестве функции активации.
Рисунок 2 — это структура нашей новой сверточной нейронной сети. В этой структуре мы используем некоторые навыки обработки изображений и убрали некоторые слои из первой структуры на рисунке 1. Мы используем 4 набора для каждой эпохи, и у нас есть 100 эпох. И мы используем функции ReLU и Sigmoid в качестве функции активации.
Точность моделей показана на рисунке 3. Хотя на рисунке 2 меньше слоев, чем на рисунке 1, он дает большую точность и требует меньше времени. Поэтому с этого момента мы будем продолжать с рисунка 2 вместо рисунка 1.
Наше второе испытание — добавление выпадающих слоев. Как мы обнаружили, добавление выпадающих слоев повышает точность, но точность снижается, а не повышается. Итак, мы видим, что нет никаких положительных эффектов от добавления выпадающих слоев. Точность с выпадающими слоями составляет 55,19, поэтому мы игнорируем эту ситуацию.
И как еще один вариант, мы собираем еще немного данных, а затем применяем их с той же структурой. Из-за большего количества изображений время больше, чем у других, но точность лучше, поэтому для нас это не так важно.
Наше четвертое испытание — редактирование наборов данных поезд — проверка — тест, добавление дополнительных слоев и игра с параметрами.
На рисунке 5 показана структура нашей новейшей сверточной нейронной сети. Мы добавляем в структуру еще 1 сверточный слой, еще 1 слой max pooling и еще 1 плотный слой. В дополнение к этому мы также добавляем в структуру 3 слоя пакетной нормализации и 3 слоя исключения. Кроме того, мы используем 128 в качестве размера партии, среднеквадратичную ошибку в качестве функции потерь. И мы используем «Адам» в качестве оптимизатора.
В конце этого испытания точность составляет 69,15, а потеря - 4,58 для нашего тестового набора данных.