«Быстрее, выше, сильнее» - олимпийский девиз, который более века подталкивал спортсменов к совершенству. Не так уж и много отличается в сфере обучения модели искусственного интеллекта, где ведущие технологические компании мира вовлечены в постоянную гонку за повышение эффективности своих исследований.

Сегодня предшественники Google и NVIDIA объявили, что они установили новые рекорды времени обучения искусственного интеллекта в конкурсе тестов MLPerf - отраслевом стандарте оценки производительности машинного обучения, который измеряет, сколько времени требуется для обучения одной из шести моделей машинного обучения подходящей цели в следующих случаях: задачи: классификация изображений, обнаружение возражений, перевод и игра в го. Результаты подчеркивают важность скорости в обучении моделей - как NVIDIA отметила в своем блоге: «Вы не сможете быть первым, если не будете быстрыми».

В создании конкурса MLPerf приняли участие более 40 технологических компаний (Alibaba, AMD, Baidu, Facebook, Google, Intel, NVIDIA и т. Д.) И исследователи ИИ из ведущих университетов.

Модули Google Cloud TPU v3 побили рекорды по обучению Transformer, Single Shot Detector (SSD) и ResNet-50. В своем сообщении в блоге Google Cloud компания хвасталась, что является первым поставщиком общедоступного облака, который превосходит локальные системы при выполнении крупномасштабных стандартных рабочих нагрузок по обучению машинному обучению по вышеуказанным моделям.

В задаче обнаружения легких объектов и единовременного перевода Google Cloud TPU v3Pods удалось обучить модели SSD и Transformer более чем на 84 процента быстрее, чем самые быстрые локальные системы. SSD стал популярным выбором для обнаружения объектов в связи с растущим спросом на приложения в области медицинской визуализации, автономного вождения и редактирования фотографий. Synced ранее сообщал о том, как архитектура модели Transformer, лежащая в основе НЛП, вдохновила на многие значительные достижения в области машинного перевода, языкового моделирования и генерации высококачественного текста.

В то время как Google Cloud продемонстрировал более высокую, чем когда-либо, скорость обучения с использованием своих облачных TPU, графические процессоры NVIDIA Tesla V100 с тензорным ядром, оснащенные NVIDIA DGX SuperPOD, также показали исключительно хорошие результаты, сократив время обучения классификации изображений ResNet-50 до 80 секунд. Чтобы понять, насколько быстро показатели производительности затмеваются, всего два года назад системе NVIDIA DGX-1 с графическим процессором V100 потребовалось 8 часов, чтобы пройти такое же обучение.

Полные результаты конкурса MLPerf доступны на сайте проекта.

Журналист: Фаню Цай | Редактор: Майкл Саразен

Вышел Отчет об адаптивности AI для публичной компании Fortune Global 500 за 2018 год!
Приобретите отчет в формате Kindle на Amazon.
Подайте заявку на участие в Партнерской программе Insight, чтобы получить бесплатный полный отчет в формате PDF.

Подпишитесь на нас в Twitter @Synced_Global, чтобы получать ежедневные новости об ИИ!

Мы знаем, что вы не хотите пропустить ни одной истории. Подпишитесь на наш популярный Synced Global AI Weekly , чтобы получать еженедельные обновления AI.