Публикации по теме 'deep-dives'
Джулия быстрее Python и Numba?
Оптимизация
Джулия быстрее Python и Numba?
Нумба очень быстр, но достаточно ли он быстр?
Numba — это широко используемая библиотека оптимизации для Python, которая увеличивает время выполнения функций до уровня языка C, а C, несомненно, работает быстрее.
Достаточно ли такого уровня оптимизации, чтобы конкурировать с новым, специально созданным и целевым языком, таким как Julia? И если да, то есть ли какие-либо предостережения относительно достижения такого уровня скорости..
Методы аппроксимации Монте-Карло: какой из них выбрать и когда?
Это обратное преобразование, случайное блуждание Метрополис-Гастингс или Гиббс? Анализ, сосредоточенный на математической основе, реализации Python с нуля и плюсах и минусах каждого метода.
Введение в аппроксимационную выборку
Для большинства вероятностных моделей, представляющих практический интерес, точный вывод невозможен, и поэтому нам приходится прибегать к той или иной форме аппроксимации.
— Распознавание образов и машинное обучение¹
Поскольку детерминированный вывод..
Введение в значения SHAP и их применение в машинном обучении
Узнайте, как библиотека SHAP работает внутри
SHAP — это математический метод для объяснения прогнозов моделей машинного обучения. Он основан на концепциях теории игр и может использоваться для объяснения прогнозов любой модели машинного обучения путем расчета вклада каждой функции в прогноз. SHAP может определить наиболее важные особенности и их влияние на предсказание модели. SHAP — это математическая тема, и ее нельзя полностью понять, не объяснив стоящую за ней математику. Тем не..
Парная настройка гиперпараметров с помощью собственного API XGBoost
Поиск глобального минимума при рассмотрении компромисса смещения и дисперсии
Поскольку Boosting Machine имеет тенденцию к переоснащению, XGBoost уделяет большое внимание решению проблемы компромисс между смещением и дисперсией и помогает пользователям применять различные методы регуляризации с помощью настройка гиперпараметров.
В этом посте вы познакомитесь с реализацией кода для настройки гиперпараметров с использованием собственного API XGBoost для устранения компромисса между..
Простой способ улучшить интервью по науке о данных
Выявление 5% лучших кандидатов с помощью формулирования технических проблем
В этом посте я поделюсь историей об ошибке, которую я совершил как неопытный менеджер по найму специалистов в области Data Science, и о том, как она изменила мой способ проведения технических собеседований. Я также рассмотрю пример приглашения на собеседование по науке о данных и покажу, как более сильные кандидаты подходят к проблеме иначе, чем более слабые кандидаты. Хотя я сосредоточил свое внимание на..
Преодоление проблем с автоматическим распознаванием речи: следующий рубеж
Достижения, возможности и влияние технологии автоматического распознавания речи в различных областях
TL;DR:
В этой публикации основное внимание уделяется достижениям в технологии автоматического распознавания речи (ASR) и ее влиянию на различные области. ASR получил широкое распространение во многих отраслях благодаря повышению точности за счет масштабирования размера модели и создания больших наборов обучающих данных с пометками и без пометок .
В будущем ожидается, что..
Все, что вам нужно знать об алгоритме повышения градиента — часть 2. Классификация
Алгоритм, объясненный примером, математикой и кодом
В статье Часть 1 мы подробно изучили алгоритм регрессии с повышением градиента. Как мы рассмотрели в этом посте, алгоритм достаточно гибок, чтобы иметь дело с любыми функциями потерь, если он дифференцируем. Это означает, что если мы просто заменим функцию потерь, используемую для регрессии, в частности среднеквадратичную потерю, функцией потерь, которая имеет дело с проблемами классификации, мы сможем выполнять классификацию без..