Я не верю, когда кто-то говорит: «Деньги не позволяют выиграть время», не так ли? 😉 Вот почему…

Вложив немного денег в покупку графического процессора, вы сэкономите много времени. Вы все еще верите, что за деньги нельзя выиграть время? Я так не думаю. ?

Чем ты еще занимаешься? Оо..о понятия не имею о графическом процессоре, тогда проверьте это здесь :-)

GPU означает графический процессор. Вы также увидите графические процессоры, обычно называемые графическими картами или видеокартами. Каждый компьютер использует графический процессор для рендеринга изображений, видео и 2D- или 3D-анимации для отображения. GPU выполняет быстрые математические вычисления и освобождает CPU для других дел.

Каждое современное мобильное устройство имеет ту или иную форму GPU для помощи в создании изображений и компьютерной графики и является неотъемлемой частью каждого современного мобильного устройства. GPU также намного лучше обрабатывает большие порции данных параллельно, чем CPU, и позволяет CPU меньше работать для создания детализированной компьютерной графики.

Архитектура графических процессоров для суперкомпьютеров стала прорывом во всех отраслях.

Использование конкретного графического процессора

Большинство графических процессоров предназначены для определенного использования, трехмерной графики в реальном времени или других массовых вычислений:

  1. Игры

2. Облачные игры

3. Рабочая станция (редактирование, кодирование, декодирование, перекодирование и рендеринг (создание цифрового контента), 3D-анимация и рендеринг, VFX и анимированная графика (CGI), разработка видеоигр и создание 3D-текстур, разработка продукта / 3D CAD, структурный анализ, моделирование, CFD анализ и научные расчеты…)

4. Облачная рабочая станция

5. Обучение искусственному интеллекту и облако

Сегодня видеокарты производятся только Nvidia и AMD. NVIDIA Titan RTX - самая мощная видеокарта, когда-либо созданная для ПК на базе самой передовой в мире архитектуры - NVIDIA Turing.

NVIDIA VS AMD

Графические процессоры AMD, как правило, имеют больше процессорных ядер - потоковых процессоров, ядер графического процессора или как вы хотите их называть - по сравнению с их аналогами от Nvidia. Например, AMD RX Vega 64 имеет 4096 ядер графического процессора, тогда как конкурирующая Nvidia GTX 1080 имеет 2560 ядер. То же самое касается RX 580 (2304 ядра) по сравнению с GTX 1060 6 ГБ (1280 ядер). Nvidia обычно компенсирует дефицит количества ядер более высокими тактовыми частотами и большей эффективностью.

Сегодня, если говорить о чистой производительности, нет никаких сомнений в том, какие графические процессоры быстрее. GTX 1080 Ti и выше от Nvidia легко опережают самые быстрые графические процессоры AMD, а новый RTX 2080 Ti компании удерживает корону.

Nvidia занимает лидирующее положение по общей доле рынка графических процессоров

Зачем вам нужен графический процессор в глубоком обучении?

Для глубокого обучения требуется много вычислительной мощности.

Графические процессоры работают быстро, потому что они имеют память с высокой пропускной способностью и оборудование, которое выполняет C арифметику с плавающей запятой со значительно большей скоростью, чем обычные процессоры.

Но затем, в 2007 году, NVIDIA создала CUDA (Compute Unified Device Architecture). CUDA - это платформа параллельных вычислений, которая предоставляет разработчикам API, позволяющий им создавать инструменты, которые могут использовать графические процессоры для обработки общего назначения.

Для любой нейронной сети обучение модели глубокого обучения является наиболее ресурсоемкой задачей.

Во время обучения нейронная сеть принимает входные данные, которые затем обрабатываются в скрытых слоях с использованием весов, которые корректируются во время обучения, а затем модель выдает прогноз. Веса корректируются, чтобы найти закономерности, чтобы делать более точные прогнозы.

Если ваша нейронная сеть имеет 1000, 100000 параметров, процессор сможет справиться с этим, но если нейронная сеть имеет миллиарды параметров, то на обучение потребуются месяцы, и ваш компьютер может отказаться от работы посередине.

«Нейронная сеть, которая принимает поисковые данные и делает прогнозы на основе 100 миллионов выходных данных или продуктов, обычно в конечном итоге имеет около 2000 параметров для каждого продукта. Вы умножаете их, и последний слой нейронной сети составляет 200 миллиардов параметров. И я не сделал ничего изощренного. Я говорю об очень-очень простой модели нейронной сети ».

- студент Университета Райса

Обучение можно проводить быстрее, просто используя графический процессор для обучения модели.

использовать CPU или GPU для обучения модели глубокого обучения:

  • Размер данных: как правило, модели глубокого обучения используют большие наборы данных, поэтому при обучении модели выполняются большие вычисления, поэтому графический процессор является оптимальным выбором.
  • Архитектура: если ваша нейронная сеть относительно мала, вы можете обойтись без графического процессора.

Что делать, если вы не можете позволить себе купить графический процессор?

Экземпляры Cloud GPU:

Если вы не хотите покупать кучу дорогих графических процессоров, вы можете получить графические процессоры по запросу у таких компаний, предоставляющих облачный хостинг, как AWS, Microsoft AZURE, Google Cloud Platform (GCP), Oracle Cloud. Они избавят вас от настройки оборудования и, что самое главное, не так уж дороги.

Стоимость варьируется от 0,225 доллара США (aws p2.xlarge - EMR) в час, пока вы его используете.

Источник изображения: Google, nvidia.com

другие источники: Wiki

Вывод: за деньги можно выиграть время.

Предварительный просмотр следующей статьи:

  • Знакомство с colab
  • Бесплатные сервисы от colab
  • Включение и тестирование графического процессора в Google Colab
  • Cuda в PyTorch
  • Тестирование графического процессора с использованием Pytorch, Tensorflow, Xgboost
  • ТПУ

Удачного обучения.