В SageMaker нам просто нужно выполнить вызов API с помощью Python SDK. SageMaker запустит инстансы ECS, запустит обучение модели, сохранит артефакты обучения в S3, а затем автоматически завершит инстансы EC2. При развертывании другой вызов API создает экземпляры EC2 и сетевые правила для доступа к модели через Интернет.

1. ВВЕДЕНИЕ

SageMaker — это полностью управляемый сервис AWS для создания и развертывания моделей машинного обучения в производстве. Разработчики могут использовать SageMaker для

  • маркировать и готовить данные,
  • выбрать алгоритм,
  • обучать, настраивать и оптимизировать модели, а также
  • развертывайте их в облаке в нужном масштабе.

Он включает в себя несколько сервисов AWS, объединенных через API, который координирует создание и управление различными ресурсами и артефактами ML.

С помощью SageMaker мы делаем вызов API с помощью Python SDK, который запускает экземпляры EC2, запускает обучение модели, сохраняет артефакты обучения в S3, а затем автоматически завершает работу экземпляров EC2.

Для развертывания другой вызов API создает экземпляры EC2 и сетевые правила для доступа к модели через Интернет.

Давайте посмотрим на различные компоненты SageMaker.

2. DOCKER-ИЗОБРАЖЕНИЯ

Если мы используем встроенные модели машинного обучения SageMaker, нам вообще не нужно взаимодействовать с Docker. Но нам необходимо создавать и публиковать образы Docker, когда мы разрабатываем и развертываем собственные модели машинного обучения.

Чтобы образ Docker был совместим с SageMaker, в образе необходимо определить несколько переменных среды, создать определенную структуру каталогов и содержать логику обучения модели и вывода в ожидаемых местах. Когда SageMaker обучает модель, он создает несколько файлов в каталоге контейнера /opt/ml.