Публикации по теме 'deep-dives'


Джулия быстрее Python и Numba?
Оптимизация Джулия быстрее Python и Numba? Нумба очень быстр, но достаточно ли он быстр? Numba — это широко используемая библиотека оптимизации для Python, которая увеличивает время выполнения функций до уровня языка C, а C, несомненно, работает быстрее. Достаточно ли такого уровня оптимизации, чтобы конкурировать с новым, специально созданным и целевым языком, таким как Julia? И если да, то есть ли какие-либо предостережения относительно достижения такого уровня скорости..

Методы аппроксимации Монте-Карло: какой из них выбрать и когда?
Это обратное преобразование, случайное блуждание Метрополис-Гастингс или Гиббс? Анализ, сосредоточенный на математической основе, реализации Python с нуля и плюсах и минусах каждого метода. Введение в аппроксимационную выборку Для большинства вероятностных моделей, представляющих практический интерес, точный вывод невозможен, и поэтому нам приходится прибегать к той или иной форме аппроксимации. — Распознавание образов и машинное обучение¹ Поскольку детерминированный вывод..

Введение в значения SHAP и их применение в машинном обучении
Узнайте, как библиотека SHAP работает внутри SHAP — это математический метод для объяснения прогнозов моделей машинного обучения. Он основан на концепциях теории игр и может использоваться для объяснения прогнозов любой модели машинного обучения путем расчета вклада каждой функции в прогноз. SHAP может определить наиболее важные особенности и их влияние на предсказание модели. SHAP — это математическая тема, и ее нельзя полностью понять, не объяснив стоящую за ней математику. Тем не..

Парная настройка гиперпараметров с помощью собственного API XGBoost
Поиск глобального минимума при рассмотрении компромисса смещения и дисперсии Поскольку Boosting Machine имеет тенденцию к переоснащению, XGBoost уделяет большое внимание решению проблемы компромисс между смещением и дисперсией и помогает пользователям применять различные методы регуляризации с помощью настройка гиперпараметров. В этом посте вы познакомитесь с реализацией кода для настройки гиперпараметров с использованием собственного API XGBoost для устранения компромисса между..

Простой способ улучшить интервью по науке о данных
Выявление 5% лучших кандидатов с помощью формулирования технических проблем В этом посте я поделюсь историей об ошибке, которую я совершил как неопытный менеджер по найму специалистов в области Data Science, и о том, как она изменила мой способ проведения технических собеседований. Я также рассмотрю пример приглашения на собеседование по науке о данных и покажу, как более сильные кандидаты подходят к проблеме иначе, чем более слабые кандидаты. Хотя я сосредоточил свое внимание на..

Преодоление проблем с автоматическим распознаванием речи: следующий рубеж
Достижения, возможности и влияние технологии автоматического распознавания речи в различных областях TL;DR: В этой публикации основное внимание уделяется достижениям в технологии автоматического распознавания речи (ASR) и ее влиянию на различные области. ASR получил широкое распространение во многих отраслях благодаря повышению точности за счет масштабирования размера модели и создания больших наборов обучающих данных с пометками и без пометок . В будущем ожидается, что..

Все, что вам нужно знать об алгоритме повышения градиента — часть 2. Классификация
Алгоритм, объясненный примером, математикой и кодом В статье Часть 1 мы подробно изучили алгоритм регрессии с повышением градиента. Как мы рассмотрели в этом посте, алгоритм достаточно гибок, чтобы иметь дело с любыми функциями потерь, если он дифференцируем. Это означает, что если мы просто заменим функцию потерь, используемую для регрессии, в частности среднеквадратичную потерю, функцией потерь, которая имеет дело с проблемами классификации, мы сможем выполнять классификацию без..