Публикации по теме 'hpc'


KAIST AI управляет более чем 800 графическими процессорами и обеспечивает мгновенный доступ к своим HPC для машинного обучения с помощью VESSL.
Высшая школа ИИ в KAIST, основанная в 2019 году, является последней частью усилий университета по продвижению исследований в области ИИ. В рамках своей миссии по развитию исследовательского опыта высшего уровня школа с самого начала вкладывала значительные средства в высокопроизводительные вычислительные системы. К 2021 году у него будет более 600 графических процессоров, что превышает вычислительную мощность кластеров в масштабах всего кампуса по всему миру и находится на одном уровне..

Использование IPU для ускорения алгоритма пространственной интерполяции данных о погоде
Подробное техническое погружение в реализацию и ускорение алгоритма Кригинга, используемого в прогнозировании погоды и исследованиях климата, на IPU. Автор: Цян Ван, инженер по машинному обучению, Graphcore Модернизация и развитие метеорологических служб привели к широкому внедрению данных о погоде в узлах сетки с высоким пространственным и временным разрешением. Высокоточные метеорологические данные на основе сетки являются не только основой современного прогнозирования погоды и..

Глубокое обучение: массово масштабируемый параллельный подход с использованием гибридных суперкомпьютеров
1. Введение Машинное обучение повсюду и само по себе стало почти брендом. Практически в каждом смартфоне есть помощники вроде Siri или Okay Google. Машинное обучение используется во все большем количестве традиционных областей: от медицины и образования до производственных линий. Книга Педро Домингоса (2015) «Главный алгоритм: как поиски совершенной обучающей машины переделают наш мир» раскрывает поразительную повсеместность этой технологии. Из книги вы узнаете, что машинное..

Знакомство с Джулией, отличной новой альтернативой численного программирования - Тестирование производительности, часть I.
Это статья из двух частей, посвященная языку Julia. Поскольку его обещание C-подобной производительности является для него большой проблемой, мы сделаем эту статью из двух частей. Здесь я просто расскажу о производительности и представлю результаты небольшого теста, который я сделал сам. Позже мы обсудим другие аспекты языка. Как это вообще возможно? Встречайте LLVM В основном высокая производительность, продемонстрированная Юлией, стала возможной благодаря LLVM project . LLVM -..

Объяснимый ИИ
Конференция SC18 в Далласе в очередной раз оказалась увлекательным местом, где смешались идеи и наблюдения в области высокопроизводительных вычислений, и интересно наблюдать за продолжающейся конвергенцией ИИ в экосистеме суперкомпьютеров. В связи с этим я начал думать о движении к «Объяснимому ИИ». Способность объяснить и понять, как работают модели при предсказании реального мира, является фундаментальным принципом науки. Будь то решение уравнений в динамической системе для получения..

Хотите шейдеров?
Шейдеры - неотъемлемая часть нашего рабочего процесса в Arction. Они используются для достижения выдающейся производительности, делегируя вычисления графической карте. Они также позволяют нам реализовывать собственные алгоритмы визуализации на уровне, близком к аппаратному. GPU - пример чрезвычайно параллельного оборудования. Эффективное использование его мощности требует параллельного вычисления данных. Computation Pipeline - очень хороший подход для этого сценария. Его можно..

Быстрое уменьшение ксенсора с помощью SIMD
xtensor уже имеет множество доступных математических функций: мы поддерживаем большую часть API NumPy прямо здесь, в C ++. Одна из областей, где в прошлом мы были немного медленнее, чем NumPy, - это сокращения. Сокращения - это операции, при которых количество измерений уменьшается путем агрегирования значений по одному или нескольким измерениям, например, путем их суммирования. Как вы знаете или не знаете, xtensor имеет ленивую модель выполнения. Это означает, что при вызове auto s =..