В SageMaker нам просто нужно выполнить вызов API с помощью Python SDK. SageMaker запустит инстансы ECS, запустит обучение модели, сохранит артефакты обучения в S3, а затем автоматически завершит инстансы EC2. При развертывании другой вызов API создает экземпляры EC2 и сетевые правила для доступа к модели через Интернет.
1. ВВЕДЕНИЕ
SageMaker — это полностью управляемый сервис AWS для создания и развертывания моделей машинного обучения в производстве. Разработчики могут использовать SageMaker для
- маркировать и готовить данные,
- выбрать алгоритм,
- обучать, настраивать и оптимизировать модели, а также
- развертывайте их в облаке в нужном масштабе.
Он включает в себя несколько сервисов AWS, объединенных через API, который координирует создание и управление различными ресурсами и артефактами ML.
С помощью SageMaker мы делаем вызов API с помощью Python SDK, который запускает экземпляры EC2, запускает обучение модели, сохраняет артефакты обучения в S3, а затем автоматически завершает работу экземпляров EC2.
Для развертывания другой вызов API создает экземпляры EC2 и сетевые правила для доступа к модели через Интернет.
Давайте посмотрим на различные компоненты SageMaker.
2. DOCKER-ИЗОБРАЖЕНИЯ
Если мы используем встроенные модели машинного обучения SageMaker, нам вообще не нужно взаимодействовать с Docker. Но нам необходимо создавать и публиковать образы Docker, когда мы разрабатываем и развертываем собственные модели машинного обучения.
Чтобы образ Docker был совместим с SageMaker, в образе необходимо определить несколько переменных среды, создать определенную структуру каталогов и содержать логику обучения модели и вывода в ожидаемых местах. Когда SageMaker обучает модель, он создает несколько файлов в каталоге контейнера /opt/ml.