Всем привет! На этой неделе мы подробно расскажем о работах, связанных с нашим проектом. Первую неделю можно найти здесь.

Похожие работы

Мы рассмотрели 3 работы, связанные с нашим проектом. В первом из них для построения сверточной нейронной сети использовался фреймворк глубокого обучения Keras. Оптимизатор, используемый для обучения модели, - Адам, и модель обучалась и проверялась на протяжении 25 эпох.

И, наконец, матрица путаницы первых родственных работ выглядит следующим образом:

Как следует из матрицы неточностей, коэффициент ошибок модели равен нулю. Но автор ничего не писал о переобучении. Мы не знаем, есть ли переоснащение.

Вы можете найти вторую связанную работу здесь:



В этой связанной работе предпочтительны методы байесовского подхода и машины опорных векторов. После того, как необходимые корректировки данных и процессы выполнены, был получен результат анализа производительности схемы выбора характеристик и классификации, чтобы выбрать оптимальный набор функций для достижения наивысшей точности в обоих методах обучения, показанных в таблице ниже. :

В методе, основанном на байесовском обучении, точность 84% при 19 наиболее значимых характеристиках.

В методе, основанном на обучении SVM, точность 83,5% при 9 наиболее важных функциях.

Вы можете найти последние работы по теме здесь:



В этой связанной работе прогностические модели оценивались с помощью пятикратной перекрестной проверки. Перекрестная проверка на уровне пациента была проведена, чтобы уменьшить систематическую ошибку модели и ошибки обобщения. Количество ячеек для разных складок показано следующим образом:

Размер изображений в наборе данных изменяется до определенного разрешения, чтобы соответствовать входным требованиям настроенных и предварительно обученных CNN, и нормализоваться для ускорения сходимости.

Была предложена индивидуализированная последовательная CNN-сеть, которая использовалась для классификации паразитированных и неинфицированных клеток. Они оценили работу этого CNN.

Архитектура кастомизированной модели представлена ​​следующим образом:

Предлагаемая CNN имеет три сверточных слоя и два полностью связанных слоя. Входные данные модели представляют собой сегментированные ячейки с разрешением 100 × 100 × 3 пикселей. Сверточные слои используют фильтры 3x3 с шагом 2 пикселя. Первый и второй сверточные слои имеют 32 фильтра, а третий сверточный слой имеет 64 фильтра. Сэндвич-конструкция сверточных / выпрямленных линейных блоков (ReLU) и правильная инициализация веса улучшают процесс обучения. Слои с максимальным объединением с окном объединения 2 × 2 и 2 шагами пикселей следуют за сверточными слоями для суммирования выходных данных соседних нейронных групп на картах признаков.

После этого они оценили характеристики готовых обученных CNN, а именно AlexNet, VGG-16, ResNet-50, Xception и DenseNet-121.

Они создали сверточную часть предварительно обученных CNN и обучили полностью подключенную модель с выпадением поверх извлеченных функций. Кроме того, экспериментально определяется наиболее оптимальный слой для извлечения свойств, помогающий в расширенной классификации. Они оценили производительность предварительно обученных CNN с точки зрения точности, чувствительности, специфичности и многих других аспектов. Показатели производительности показаны ниже:

Слои-кандидаты, дающие наилучшую производительность:

Показатели производительности, полученные при извлечении функций из оптимальных слоев:

Настроенная модель приблизилась к оптимальному решению из-за неявной регуляризации, налагаемой оптимизацией гиперпараметров, меньшими размерами фильтров свертки и агрессивным падением в полностью связанных слоях.

Предварительная обработка данных

Изображения в нашем наборе данных различаются по размеру. По этой причине размер изображений необходимо изменить для предварительной обработки данных. Мы изменим размер изображений до того же размера. А также, чтобы улучшить локальную яркость и контраст, мы намерены применить нормализацию, чтобы улучшить локальную яркость и контраст. Так что мы снизим уровень потерь.

Увидимся на следующей неделе…