Публикации по теме 'apache-spark'


Раскрытие пользовательской функции Spark в MLFlow
Как это работает под капотом для изолированных сред conda и каковы предостережения «В нашей предыдущей статье мы обсуждали отличное решение, позволяющее избежать зависимостей машинного обучения, синхронизирующих черную дыру. То есть мы показали способ избежать проблемы синхронизации между зависимостями, используемыми во время обучения модели, и зависимостями, используемыми во время обслуживания модели, за счет того, что модель и служба логического вывода работают вместе, но полностью..

СОЗДАНИЕ МАШИННОГО ОБУЧЕНИЯ В SPARK С ПОМОЩЬЮ PYTHON
СОЗДАНИЕ МАШИННОГО ОБУЧЕНИЯ В SPARK С ПОМОЩЬЮ PYTHON Реальные данные обычно очень неструктурированы. Конвейеры машинного обучения заполняют этот пробел с помощью многоступенчатой ​​структуры, которая автоматически очищает и организует данные, преобразует их в машиночитаемую форму, обучает модели и генерирует прогнозы на постоянной основе. Конвейеры машинного обучения полезны для автоматизации рабочих процессов, так что вы можете легко комбинировать алгоритмы и беспрепятственно..

Рекомендации по написанию рабочих мест PySpark производственного уровня
Как структурировать репозиторий и код вакансий PySpark Использование PySpark для обработки больших объемов данных распределенным образом - отличный способ управлять крупномасштабными задачами с большим объемом данных и получать бизнес-идеи, не жертвуя при этом эффективностью разработчика. Короче говоря, PySpark великолепен. Однако, хотя существует множество примеров кода, там не так много информации (которую я мог бы найти) о том, как создать базу кода PySpark - написание..

Пользовательские метрики Kafka Streaming с использованием Apache Spark Prometheus Sink
Создание и предоставление пользовательских метрик Kafka Consumer Streaming в Apache Spark с использованием PrometheusServlet В этом сообщении блога я опишу, как создавать и улучшать текущие метрики Spark Structured Streaming с помощью потребительских метрик Kafka и предоставлять их с помощью Spark 3 PrometheusServlet, на который Prometheus может напрямую нацеливаться. В предыдущих версиях Spark необходимо было настроить либо JmxSink/JmxExporter, GraphiteSink/GraphiteExporter, либо..

Превращение моделей на основе трансформеров в первоклассных жителей дома у озера
В этой статье я покажу шаблон реализации для внедрения предварительно обученных моделей NLP на основе преобразователя в архитектуру Databricks Lakehouse . В частности, я покажу простой способ адаптировать предварительно обученную модель преобразователя к конкретной бизнес-задаче с помощью MLflow с открытым исходным кодом и упаковать эту пользовательскую модель для последующего использования в домике у озера. Почему вас это должно волновать? Если вы применяете НЛП в своем бизнесе,..

Создавайте масштабируемые конвейеры прогнозирования моделей машинного обучения с малой задержкой, используя Spark Structured Streaming и…
Серии MLOps на практике — рассказ о схемах проектирования и реализации критического компонента MLOps. В центре внимания сегодняшней статьи — построение пайплайнов прогнозирования моделей. Чтобы заставить модели машинного обучения работать в реальной производственной среде, одним из наиболее важных шагов является развертывание обученных моделей для прогнозирования. Развертывание (выпуск) модели — это процесс, позволяющий интегрировать обученные модели машинного обучения в рабочую среду,..

Установка PySpark с JAVA 8 в ubuntu 18.04
Базовая настройка для распределенного машинного обучения После нескольких часов борьбы я наконец установил java 8, Spark и настроил все переменные среды. Я просмотрел много средних статей и ответов на StackOverflow, но ни один конкретный ответ или сообщение не помогли мне решить мои проблемы. Так что это всего лишь моя небольшая попытка собрать все воедино. На моей машине установлена ​​ubuntu 18.04, и я использую java 8 вместе с anaconda3. Если вы выполните следующие действия, вы..