Публикации по теме 'model-compression'


Сжатие модели
Процесс уменьшения размера модели называется сжатием модели. Несмотря на то, что разрабатывается много новых методов, часто используются следующие четыре типа методов: Факторизация низкого ранга Дистилляция знаний Сокращение Квантование Давайте подробно обсудим все эти методы: Факторизация низкого ранга. Ключевая идея факторизации низкого ранга заключается в замене тензоров высокой размерности тензорами меньшей размерности. 2. Дистилляция знаний . Это метод, при..

Сжатие модели глубокого обучения для анализа изображений: методы и архитектуры
В своих предыдущих сообщениях в блоге я рассмотрел известные и недавние алгоритмы глубокого обучения для классификации изображений и обнаружения объектов . В Zyl мы стремимся встраивать модели глубокого обучения непосредственно в смартфоны пользователей, чтобы гарантировать их конфиденциальность. Это порождает множество ограничений для этих моделей, которые, как известно, являются тяжелыми и жадными по энергии. К счастью, в Zyl встроенные модели используются только для вывода »...

Сжатие в мире искусственного интеллекта: мобильные сети, обрезка и квантование
Узнайте, как можно сжать модель глубокого обучения размером 500 МБ до 5 МБ практически без снижения точности. За последние пару лет современные алгоритмы искусственного интеллекта начали перемещаться из исследовательских лабораторий в реальный мир. Это имеет важные последствия, поскольку достижения, происходящие в сообществе ИИ, теперь могут охватить миллиарды людей по всему миру. Однако, как только вы решите развернуть модель ИИ, необходимо решить множество вещей, одна из которых -..

Зачем развертывать огромную нейронную модель, когда достаточно маленькой?
Методы сжатия модели, которые работают лучше, чем исходная Глубокая нейронная сеть - один из мощных методов машинного обучения. Он имеет потрясающую производительность во многих задачах, включая распознавание изображений, обработку естественного языка, а также распознавание речи. Построение глубокой нейронной сети, которая хорошо работает в последующих задачах, часто требует наличия миллионов или даже миллиардов параметров. Один пример из модели Крижевского, выигравшей конкурс..

Au Revoir Backprop! Bonjour Optical Transfer Learning!
Как люди, всякий раз, когда мы узнаем что-то новое, мы опираемся на свой прошлый опыт и знания. Трансферное обучение - это та же мощная идея, но она применяется к глубокому обучению. Что такое трансферное обучение? Трансферное обучение широко используется в глубоком обучении. Его цель - передать часть знаний, полученных одной моделью при решении одной задачи, другой модели. Это полезно, когда доступные данные ограничены или когда время является большим ограничением при..