Карьера, Машинное обучение

16 вопросов для интервью
Каждый энтузиаст машинного обучения должен знать

Инженер по машинному обучению должен охватывать обширные концепции машинного обучения, DL, вероятности, статистики и кодирования с хорошей глубиной понимания. Интервью с инженером по машинному обучению не о том, что мы всегда думаем о почему и как, поэтому я ограничился 2–3 тем, что вопросов в этом обсуждении и сосредоточиться на Вопросах почему и как.

  1. Как использовать k-NN для классификации и регрессии?

A) Для классификации применяется большинство голосов соседей, а для регрессии мы имеем в виду или медианное значение всех k соседей.

2) Почему мы используем слово «регрессия» в логистической регрессии, даже если мы используем его для классификации?

A) Мы используем логистическую регрессию для классификации после модели, прогнозирующей непрерывный выпуск между (0–1), которую мы можем интерпретировать как вероятность принадлежности точки к классу.

  • например, сигмовидная кишка (W.Xq) ›0,5, мы маркируем ее как положительную, иначе как отрицательную.

3) Объясните интуицию, лежащую в основе Boosting

A) Обучите самую базовую модель h (0) с обучающими данными, так как модель, которая соответствует этим обучающим данным, имеет высокую систематическую ошибку, она делает больше ошибок обучения.

  • Затем сохраните ошибки
  • Обучите следующую модель ошибкам, полученным в предыдущей модели.
  • Если мы продолжим делать это ... ... каждый раз, когда мы получаем остаточные ошибки и пытаемся предсказать их в следующей модели, тогда наша окончательная модель = Fi (x) = a0 h0 (x) + a1 h1 (x) ... …. + Ai hi (x)

4) Что означает точность модели, равная нулю, возможна ли точность, равная нулю.

А) Точность представляет из всех предсказанных положительных результатов, сколько на самом деле положительных.

точность = (истинные положительные результаты) / (истинные положительные результаты + ложные положительные результаты)

  • точность равна 0, если каждая точка, предсказанная моделью, является ложноположительной.

5) Зачем нужна калибровка?

  • Калибровка необходима, если в качестве выходных данных требуется метка вероятностного класса.
  • Если метрика представляет собой логарифмическую потерю и для этого требуются значения P (Y_i | X_i), калибровка является обязательной.
  • Вероятности, выдаваемые такими моделями, как LR, наивный байесовский метод, часто НЕ откалиброваны, что можно наблюдать, построив график калибровки. Следовательно, мы используем калибровку как шаг постобработки, чтобы гарантировать, что окончательные вероятности классов хорошо откалиброваны.

6) В чем заключается совместное использование параметров в глубоком обучении?

A) Совместное использование параметров - это совместное использование весов всеми нейронами в конкретной карте характеристик. CNN использует один и тот же вектор весов для выполнения операции свертки, а RNN имеет одинаковые веса на каждой временной отметке.

7) Сколько параметров у нас в LSTM?

A) 4 (mn + m² + m). Для вывода читайте в блоге.



8) Что такое преобразование Кокса? Когда его можно использовать?

  • Преобразование Бокса-Кокса помогает нам преобразовывать негауссовские распределенные переменные в гауссовские распределенные переменные.
  • Рекомендуется выполнить это, если ваша модель ожидает функций, распределенных по Гауссу (наивный Байес по Гауссу).

9) Как использовать тест KS, чтобы найти две случайные величины X1 и X2, которые следуют одному и тому же распределению?

  • Постройте CDF для обеих случайных величин
  • Предположите нулевую гипотезу: две случайные величины происходят из одного и того же распределения;
  • Возьмите статистику теста D = supremum (CDF (X1) - CDF (X2)) во всем диапазоне CDF.
  • Нулевая гипотеза отклоняется когда D ›c (α) * sqrt ((n + m) / nm)
  • где m и n - отсутствие наблюдений в CDF1 и CDF2 соответственно.

10) Объясните механизм обратного распространения ошибки в отсекаемых слоях?

  • При обучении нейронной сети с выпадением выход рассчитывается без учета тех весов для выбранных нейронов, которые выбраны для отбрасывания, и они имеют то же значение, что и в предыдущих итерациях. И этот вес не обновляется при обратном распространении.
  • Обратите внимание, что веса не станут нулевыми, они просто игнорируются для итерации.

11) Найти форму и параметры вывода после следующих операций?

(7,7 512) ⇒ задняя часть ⇒ Плотная (512)

(7,7,512) ⇒ Конв. (512, (7,7))

  • для (7,7,512) ⇒ flatern ⇒ Dense (512) обучаемые параметры = (7 * 7 * 512) * 512 = 12845056, форма вывода = 512
  • Для (7,7,512) ⇒ Conv (512, (7,7)) обучаемые параметры = (7 * 7 * 512) * 512 = 12845056, форма вывода = 1,1 512

12) Как вы рассчитаете P (x / y = 0) в случае, если x является непрерывной случайной величиной?

A) Если x - числовой признак, тогда предположим, что признак соответствует нормальному распределению. Тогда мы можем получить вероятности правдоподобия из функции плотности (PDF), тогда как значение абсолютного правдоподобия для любой непрерывной переменной равно нулю.

13) Объясните корреляцию и ковариацию?

A) Ковариация показывает линейную взаимосвязь между переменными, которую мы не можем интерпретировать, насколько сильно они связаны, тогда как с помощью корреляции она дает силу и направление линейной взаимосвязи двух переменных.

14) В чем проблема с сигмовидной кишкой во время обратного распространения ошибки?

A) Производная сигмовидной функции находится между 0 и 0,25. Во время умножения градиентов методом цепного правила он будет стремиться к нулю, что приведет к исчезновению проблем с градиентами и это повлияет на обновление веса.

15) Разница между микро-средним F1 и макросредним F1 для классификации класса мультикласса?

  • Оценка F1 = 2 * точность * отзыв / (точность + отзыв)
  • Для 3 классов Классификация для каждого класса будет соответствовать Истинно-положительные, Ложно-положительные, Истинно-отрицательные, Ложно-отрицательные.

а) Micro Avg F1

  • Микро-среднее значение точности = TP1 + TP2 + TP3 / (TP1 + TP2 + TP3 + FP1 + FP2 + FP3)
  • Среднее значение отзыва = TP1 + TP2 + TP3 / (TP1 + TP2 + TP3 + FN1 + FN2 + FN3)
  • Micro Avg F1 = 2 * точность * отзыв / (точность + отзыв)

б) Метод макро-среднего

  • Макроусреднение точности = P1 + P2 + P3 / 3
  • Макроусреднение отзыва = R1 + R2 + R3 / 3
  • Где P1 = TP1 / (TP1 + FP1), R1 = TP1 / (TP1 + FN1) То же самое для P2, P3
  • Среднее значение макроса F1 = 2 * точность * вызов / (точность + отзыв)

16) Почему увеличение изображения помогает в задачах классификации изображений?

A) Увеличение данных изображения, используемое для создания или расширения данных путем искусственного создания новых изображений на основе изменения входных изображений, таких как перевод, масштабирование, зеркальное отображение, управление, масштабирование и т. Д. Таким образом, мы можем сделать нашу модель устойчивой к изменению входного изображения.

Дополнительная информация:









Ссылки:

Www.appliedaicourse.com