Ошибки при запуске пакетного преобразования Sagemaker с моделью LDA

Я успешно обучил модель LDA с помощью sagemaker, мне удалось настроить API вывода, но у него есть ограничение на количество записей, которые я могу запрашивать за раз.

Мне нужно получить прогнозы для большого файла, и я пытался использовать пакетное преобразование, но столкнулся с препятствием.

Моя дата ввода находится в типе содержимого application/x-recordio-protobuf, код выглядит следующим образом:

# Initialize the transformer object
transformer =sagemaker.transformer.Transformer(
    base_transform_job_name='Batch-Transform',
    model_name=model_name,
    instance_count=1,
    instance_type='ml.c4.xlarge',
    output_path=output_location,
    max_payload=20,
    strategy='MultiRecord'
    )
# Start a transform job
transformer.transform(input_location, content_type='application/x-recordio-protobuf',split_type="RecordIO")
# Then wait until the transform job has completed
transformer.wait()

# Fetch validation result 
s3_client.download_file(bucket, 'topic_model_batch_transform/output/batch_tansform_part0.pbr.out', 'batch_tansform-result')
with open('batch_tansform-result') as f:
    results = f.readlines()   
print("Sample transform result: {}".format(results[0]))

Я разделил входной файл на 10 файлов размером около 19 МБ каждый. Сначала я пытаюсь запустить один фрагмент, поэтому всего 19 МБ. Я попытался изменить стратегию, попробовав SingleRecord. Я также пробовал разные типы split_type, а также пробовал None и «Line».

Я прочитал документацию, но не ясно, что еще я должен попробовать, также сообщения об ошибках очень неясны.

2019-04-02T15:49:47.617:[sagemaker logs]: MaxConcurrentTransforms=1, MaxPayloadInMB=20, BatchStrategy=MULTI_RECORD
#011at java.lang.Thread.run(Thread.java:748)2019-04-02T15:49:48.035:[sagemaker logs]: du-sagemaker/data/batch_transform/batch_tansform_part0.pbr: Bad HTTP status returned from invoke: 413
2019-04-02T15:49:48.036:[sagemaker logs]: du-sagemaker/data/batch_transform/batch_tansform_part0.pbr:
2019-04-02T15:49:48.036:[sagemaker logs]: du-sagemaker/data/batch_transform/batch_tansform_part0.pbr: Message:
2019-04-02T15:49:48.036:[sagemaker logs]: du-sagemaker/data/batch_transform/batch_tansform_part0.pbr: <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2 Final//EN">
2019-04-02T15:49:48.036:[sagemaker logs]: du-sagemaker/data/batch_transform/batch_tansform_part0.pbr: <title>413 Request Entity Too Large</title>
2019-04-02T15:49:48.036:[sagemaker logs]: du-sagemaker/data/batch_transform/batch_tansform_part0.pbr: <h1>Request Entity Too Large</h1>
2019-04-02T15:49:48.036:[sagemaker logs]: du-sagemaker/data/batch_transform/batch_tansform_part0.pbr: <p>The data value transmitted exceeds the capacity limit.</p>

Это последнее, что я получил с вышеуказанной конфигурацией, до этого я также получал код ошибки 400 HTTP.

Любая помощь или указатели будут очень признательны! Спасибо


person D_usv    schedule 02.04.2019    source источник


Ответы (2)


Хотя платформа пакетного преобразования поддерживает гибкие ограничения полезной нагрузки (через MaxPayloadInMB), многие алгоритмы устанавливают более строгие внутренние ограничения. Это верно для встроенного в SageMaker алгоритма LDA, который отклоняет «большие» запросы в соответствии со своей внутренней конфигурацией.

Ошибка, которую вы видите в журнале, говорит именно об этом: клиент пакетного преобразования попытался отправить запрос размером до 20 МБ, но сервер алгоритма LDA отклонил запрос с кодом ошибки 413 (Request Entity Too Large).

При использовании контейнера встроенного алгоритма SageMaker или любого контейнера, который не является вашим собственным, мы рекомендуем оставить параметр MaxPayloadInMB не заданным в вашем CreateTransformJob запросе. Это побудит платформу выбрать параметры выполнения алгоритма по умолчанию, которые вы увидите напечатанными в своем журнале следующим образом:

[sagemaker logs]: MaxConcurrentTransforms=1, MaxPayloadInMB=${DEFAULT_MAX_PAYLOAD_IN_MB}, BatchStrategy=MultiRecord

Для получения дополнительной информации о том, как разрешаются эти «параметры выполнения», см. «порядок приоритета», задокументированный здесь.

Помимо управления размером полезной нагрузки, другие выбранные вами параметры задания преобразования (SplitType=RecordIO и BatchStrategy=MultiRecord) выглядят правильными для передачи данных RecordIO-Protobuf.

person M. Meidl    schedule 08.04.2019

Мне удалось решить проблему, казалось, что максимальная полезная нагрузка, которую я использовал, была слишком высокой. Я установил MaxPayloadInMB=1, и теперь он работает как сон

person D_usv    schedule 30.04.2019