В глубоком обучении аппаратное ускорение - это использование компьютерного оборудования, разработанного для ускорения приложений искусственного интеллекта в большей степени, чем это было бы возможно с программным обеспечением, работающим на центральном процессоре общего назначения (ЦП). Особое внимание уделяется приложениям машинного обучения (1), таким как искусственные нейронные сети, машинное зрение и логический вывод (2).

Мы рассмотрим наиболее распространенные типы материалов, используемых в современных приложениях глубокого обучения, и откроем обсуждение перспективных технологий, которые появятся в будущем.

Интегральная схема общего назначения: графический процессор (GPU)

Графические процессоры (ГП) - это универсальное решение, которое предпочтительнее ЦП по нескольким причинам.

Графические процессоры позволяют иметь тысячи параллельных потоков (по сравнению с оптимизацией производительности одного потока), сотни более простых ядер (по сравнению с несколькими сложными) и выделять большую часть поверхности кристалла для простых операций с целыми числами и с плавающей запятой (по сравнению с более сложными операциями, такими как уровень инструкций Параллелизм). Для выполнения множества более простых операций потребуется меньшая мощность, что является еще одним параметром, который следует учитывать. (3)

ЦП можно сравнить с быстрым и экономичным спортивным автомобилем, перевозящим небольшой груз, с медленным и экономичным грузовым автомобилем с большим грузом. (4)

Интегральные схемы специального назначения: программируемая вентильная матрица (ПЛИС)

Преимущество такого типа интегральной схемы специального назначения по сравнению с интегральной схемой общего назначения заключается в ее гибкости: после изготовления ее можно запрограммировать для реализации практически любой возможной конструкции и более подходящей для конкретного приложения по сравнению с графическим процессором.

Этот тип оборудования также разработан с учетом приложений общего назначения, которые будут использоваться для определенных настроек. (5)

Его можно спроектировать как прототип для последующего проектирования интегральной схемы для конкретного приложения.

Дальнейшие улучшения: специализированные интегральные схемы для конкретных приложений (ASIC)

Эти интегральные схемы будут специально разработаны для приложений без возможности их перепрограммирования. Обычно это увеличивает производительность в 10 (1) раз (улучшение производительности на ватт по сравнению с стандартными решениями при работе с задачами машинного обучения) и / или будет более эффективно потреблять. Такие компании, как Amazon, Google и Facebook, разрабатывают такие схемы для собственного использования. (6) (7)

Ссылки

(1) Google развивает машинное обучение с помощью своего тензорного процессора. https://techreport.com/news/30155/google-boosts-machine-learning-with-its-tensor-processing-unit/

(2) Проект Brainwave. https://www.microsoft.com/en-us/research/project/project-brainwave/

(3) Действительно ли нам нужен графический процессор для глубокого обучения? https://medium.com/@shachishah.ce/do-we-really-need-gpu-for-deep-learning-47042c02efe2/

(4) Графические процессоры, необходимые для глубокого обучения. https://www.analyticsvidhya.com/blog/2017/05/gpus-needed-for-deep-learning/

(5) Обзор ускорителей на базе FPGA для сверточных нейронных сетей. https://www.academia.edu/37491583/A_Survey_of_FPGA-based_Accelerators_for_Convolutional_Neural_Networks

(6) Обновленный обзор эффективных аппаратных архитектур для ускорения глубоких сверточных нейронных сетей. Страница 9 - Пространственные архитектуры: Fpgas и Asics. https://www.mdpi.com/1999-5903/12/7/113/pdf

(7) Facebook присоединяется к Amazon и Google в гонке на базе искусственного интеллекта. https://www.ft.com/content/1c2aab18-3337-11e9-bd3a-8b2a211d90d5/