Публикации по теме 'cuda'


Быстро установите CUDA и cuDNN в Google Cloud Compute
В этой короткой статье описывается процесс установки NVIDIA CUDA и cuDNN на экземпляр Google Cloud Platform (GCP) с включенным графическим процессором Nvidia Tesla K80. Общее время, необходимое для установки, не должно превышать 15 минут, в зависимости от скорости вашей сети. Если вы не настроили экземпляр GCP с графическим процессором, вы также можете посетить эту статью о том, как я настраиваю экземпляр Google Cloud Compute с графическим процессором . Предварительное условие..

Производительность и переносимость гетерогенного кода с использованием инструментов миграции CUDA на SYCL
Потребность в более быстром решении наряду с удовлетворением потребностей клиентов в более энергоэффективных и экономичных вычислениях сделала гетерогенные вычисления с использованием как ЦП, так и графических процессоров повсеместной частью современных вычислений. Скорость и масштабы этого освоения были увеличены за счет выдающихся успехов машинного обучения и ИИ в решении сложных проблем, учитывая, что базовые модели нейронных сетей, как правило, прекрасно сопоставляются с параллельным..

Как использовать CUDA в Unreal Engine ?
Экзистенциальный вопрос: зачем использовать CUDA в Unreal Engine? Ответ: Почему бы и нет? Введение Cuda позволяет реализовать высокопроизводительные вычисления (GPGPU). Некоторые распараллеливаемые задачи можно выполнять прямо в CUDA. Мы также могли бы подумать об использовании вычислительных шейдеров для параллельных вычислений в Unreal, но это не тема сегодняшнего дня (может быть, следующая статья). Цель этой статьи НЕ показать, как оптимизировать вычисления на Unreal..

Программирование GPU через языковые границы
В этой статье делается попытка проиллюстрировать тот факт, что NVRTC + динамическое создание экземпляров может быть мощной парадигмой программирования CUDA для создания библиотек GPU, которые можно повторно использовать из произвольного языка, поддерживающего взаимодействие C/C++. Это было мотивацией моего проекта с открытым исходным кодом ThrustRTC и ряда подобных проектов. Важность и ограничения шаблонов в библиотеках GPU Библиотеки с интенсивными вычислениями в основном написаны на..

Установите PyTorch с поддержкой cuda.
Машинное обучение (МО) стало фундаментальным инструментом в решении сложных задач. Алгоритмы машинного обучения используют статистические модели для прогнозирования и принятия решений, которые обучаются на больших наборах данных. Для достижения более высокой производительности алгоритмы машинного обучения используют для вычислений графические процессоры (графические процессоры). CUDA — это платформа параллельных вычислений и API, которые позволяют графическим процессорам выполнять..

Базовая концепция CUDA
Базовая концепция CUDA что нужно знать перед работой с параллельными вычислениями на графическом процессоре В настоящее время программирование на графических процессорах стало довольно распространенным явлением в мире, поскольку потребность в интенсивных вычислениях растет с каждым годом. Такие задачи, как машинное обучение, криптография и, очевидно, добыча монет , больше не могут эффективно выполняться одними только ЦП из-за большого количества данных, задействованных в обработке...

Как запустить приложение CUDA в контейнере Docker
Введение В настоящее время практически невозможно найти какое-либо приложение для машинного обучения, которое не работает на Графическом процессоре NVIDIA . В этом руководстве мы покажем вам, как масштабировать ваше приложение с поддержкой CUDA с помощью Docker. Предпосылки Ubuntu 14.04 или новее (x86_64), требуется для среды выполнения контейнера NVIDIA. Docker Community Edition 19.03 или новее (с API v1.40) для встроенной поддержки NVIDIA Графический процессор NVIDIA с..