Искусственный интеллект, машинное обучение, анализ данных и другие ресурсоемкие рабочие нагрузки, основанные на данных, требуют невероятных вычислительных возможностей от серверов и сети. Современные невероятно быстрые многоядерные процессоры предлагают решение, ускоряя вычислительную обработку. Следовательно, все это предъявляет огромные требования к сетевой инфраструктуре. С увеличением числа критически важных рабочих нагрузок, таких как AI/ML, выполняемых в более плотной и быстрой инфраструктуре центра обработки данных, возрастает потребность в скорости и эффективности высокопроизводительных сетей.

Если мы посмотрим, что движет потребностью в увеличении пропускной способности, мы обнаружим растущую плотность внутри виртуализированных серверов, которые эволюционировали в направлении север-юг и восток-запад. Кроме того, массовый сдвиг в межмашинном трафике привел к значительному увеличению требуемой пропускной способности сети.

Появление более быстрых хранилищ в виде твердотельных устройств, таких как флэш-память и NVMe, имеет аналогичный эффект. Мы обнаруживаем потребность в увеличении пропускной способности повсюду вокруг нас, поскольку наша жизнь все больше пересекается с технологиями. Ведущими в этой области являются рабочие нагрузки искусственного интеллекта (ИИ), которые требуют решения сложных вычислений, требующих быстрой и эффективной доставки данных из огромного количества наборов данных. Использование упрощенных протоколов, таких как удаленный прямой доступ к памяти (RDMA), может дополнительно помочь завершить быстрый обмен данными между вычислительными узлами и оптимизировать процесс связи и доставки.

Всего несколько лет назад большинство центров обработки данных начали масштабное развертывание 10GbE, сократив необходимое время обучения. Сегодня мы наблюдаем переход к 25 и 100GbE и адаптацию к 200/400GbE, чтобы решить возникающие проблемы с пропускной способностью. В целом рынок Ethernet-коммутаторов претерпевает изменения. Ранее рост инфраструктуры коммутации Ethernet был обусловлен 10/40 Гбит/с, но тенденция меняется в пользу 25 и 100 Гбит/с.

Аналитики сходятся во мнении, что скоро скорости Ethernet 25 и 100 Гбит/с, а также появляющиеся скорости Ethernet 400 Гбит/с превзойдут все другие решения Ethernet в качестве наиболее используемой пропускной способности Ethernet. Эта тенденция обусловлена ​​растущим спросом на полосу пропускания на стороне хоста по мере увеличения плотности центров обработки данных и роста потребности в коммутационных мощностях, чтобы идти в ногу со временем. Технологии 25 и 100GbE не только обеспечивают пропускную способность, но и помогают повысить экономическую эффективность капитальных и эксплуатационных расходов по сравнению с устаревшими 10/40Gb, а также обеспечивают более высокую надежность и энергопотребление для оптимальной эффективности и масштабируемости центра обработки данных.

Появление обработки и анализа данных на периферии

Граничные вычисления позволяют анализировать данные с устройств на периферии перед отправкой в ​​центр обработки данных. Использование технологии Intelligent Edge может помочь максимизировать эффективность бизнеса. Вместо отправки данных в центральный центр обработки данных анализ выполняется в месте, где данные генерируются. Микроцентры обработки данных на периферии — с интеграцией хранилища, вычислений и сети — обеспечивают скорость и гибкость, необходимые для обработки данных ближе к месту их создания.

По данным Gartner, к 2025 году около 75% данных будут обрабатываться за пределами традиционных централизованных центров обработки данных. Пограничные вычисления изменили способы обработки, обработки и доставки данных с миллионов устройств по всему миру. Теперь наличие более быстрой сети позволяет интеллектуальным граничным вычислительным системам ускорить создание или поддержку приложений реального времени, таких как обработка видео и аналитика, автоматизация производства, искусственный интеллект и робототехника.

Наличие более быстрых серверов и систем хранения, подключенных к высокоскоростной сети Ethernet, позволяет эффективно обрабатывать эти данные на периферии. Именно здесь ИИ, применяемый на периферии и поддерживаемый высокоскоростной сетью, может быстро и гибко изменить способы сбора, транспортировки, обработки и анализа данных. По мере того, как данные становятся все более распределенными, а миллиарды устройств на периферии генерируют данные, потребуется обработка в реальном времени для эффективного анализа и извлечения полезных сведений.

Происходит сдвиг парадигмы от сбор-перевозка-хранение-анализ на сбор-анализ-перевозка-хранение в режиме реального времени. Intelligent Edge обеспечивает вычислительную мощность ближе к месту создания данных. Это может дополнительно решить проблему задержки для приложений реального времени. Потоковая аналитика может предоставить необходимую интеллектуальную информацию, необходимую на периферии, где данные могут быть очищены, нормализованы и оптимизированы перед транспортировкой в ​​центральный центр обработки данных или облако для хранения, постобработки, аналитики и архивирования. Затем, когда данные отправляются в центральный центр обработки данных из нескольких периферийных местоположений, их можно дополнительно объединять и сопоставлять для анализа тенденций, обнаружения аномалий, прогнозов, прогнозов и аналитических данных с использованием машинного обучения и ИИ.

Графические процессоры повышают производительность, необходимую для параллельной обработки.

Быстрый рост производительности графического оборудования в сочетании с недавними улучшениями в его программируемости сделали графические ускорители привлекательной платформой для выполнения ресурсоемких задач в самых разных областях применения. Кластеры на базе графических процессоров используются для выполнения ресурсоемких вычислительных задач, таких как вычисления методом конечных элементов и вычислительная гидродинамика [1]. Поскольку графические процессоры обеспечивают большое количество ядер и возможности операций с плавающей запятой, для соединения между платформами графических процессоров требуется высокоскоростная сеть. Это обеспечивает необходимую пропускную способность и минимальную задержку, которая требуется для обмена данными между графическими процессорами.

Используя ИИ, организации разрабатывают и внедряют в производство, процессы и отраслевые приложения, которые автоматически изучают, обнаруживают и дают рекомендации или прогнозы, которые можно использовать для постановки стратегических целей и обеспечения конкурентного преимущества. Для достижения этих стратегических целей организациям требуются специалисты по данным и аналитики, обладающие навыками разработки моделей и проведения аналитики корпоративных данных. Этим аналитикам данных также требуются специализированные инструменты, приложения и вычислительные ресурсы для создания сложных моделей и анализа огромных объемов данных.

GPUDirect для связи между графическими процессорами

Рис. 1. Удаленный прямой доступ к памяти GPUDirect (RDMA)

Основная проблема производительности при развертывании кластеров, состоящих из узлов с несколькими графическими процессорами, связана с взаимодействием между графическими процессорами или моделью связи между графическими процессорами. До технологии GPU-direct любая связь между GPU должна была включать центральный процессор и требуемые буферные копии. Участие ЦП в обмене данными с графическим процессором и необходимость буферной копии создавали узкие места в системе, замедляя доставку данных между графическими процессорами. Новая технология GPUDirect позволяет графическим процессорам обмениваться данными быстрее, устраняя необходимость участия ЦП в коммуникационном цикле и устраняя буферные копии. В результате повышается общая производительность и эффективность системы, что сокращает время обмена данными между графическими процессорами на 30%. Это позволяет масштабировать до 10, 100 или даже 1000 графических процессоров на сотнях узлов. Чтобы приспособиться к этому типу масштабирования и обеспечить его безупречную работу, требуется сеть с минимальным отбрасыванием пакетов или без них, с наименьшей задержкой и лучшим управлением перегрузками.

Искусственный интеллект, машинное обучение, анализ данных и другие ресурсоемкие рабочие нагрузки, основанные на данных, требуют невероятных вычислительных возможностей от серверов и сети. Современные невероятно быстрые многоядерные процессоры предлагают решение, ускоряя вычислительную обработку. Следовательно, все это предъявляет огромные требования к сетевой инфраструктуре.