Авторы Джейн Хуанг, Даниэль Йехдего и Сиддхарт Кумар

Введение

Это вторая статья из серии, посвященной методам и приложениям причинного вывода. В Части 1 мы обсуждали, когда и почему причинно-следственные модели могут помочь в решении различных бизнес-проблем. Мы также предоставили основы для анализа причинно-следственных связей и сравнили несколько популярных пакетов Python для анализа причинно-следственных связей. В этой статье мы подробно рассмотрим различные методы оценки причинно-следственных связей и обсудим выбор алгоритма для ваших собственных постановок задачи. Причинно-следственный вывод может использоваться в дополнение к A / B-тестам разными способами для извлечения информации, но в этой статье основное внимание уделяется методам оценки при необоснованности или квазиэкспериментальной основе, когда проведение рандомизированного контрольного исследования (РКИ) невозможно.

Выбор алгоритма

Как обсуждалось в Части 1, РКИ - традиционный золотой стандарт, позволяющий объективно оценивать эффекты лечения. Однако в обсервационных исследованиях возникает возможность систематической ошибки, поскольку разница в результатах лечения может быть вызвана фактором, прогнозирующим лечение, а не самим лечением, известным как ошибочность. В результате желательно как можно точнее воспроизвести рандомизированный эксперимент с помощью различных стратегий.

Причинный вывод состоит из семейства статистических методов. В этой статье мы представляем два типа методов оценки: методы оценки в условиях необоснованности (также известные как методы, основанные на кондиционировании) и методы оценки для квазиэкспериментов (план исследования, который выглядит как экспериментальный план, но не имеет ключевого ингредиента - случайного назначение лечения - изучение вместо ранее существовавших групп, которые получали различные виды лечения постфактум).

В квазиэкспериментах обычно используемые подходы включают простые естественные эксперименты, инструментальные переменные (IV) и модели разрывов регрессии. Мы углубимся в подходы IV в следующем разделе этой статьи и кратко представим здесь два других.

  • Для естественных экспериментов, вместо того, чтобы предполагать игнорирование всего набора данных, нам нужно найти подмножества, которые приблизительно соответствуют эксперименту. Несколько распространенных источников - лотерея, предыдущие A / B-тесты и так далее. Естественные эксперименты допускают общие курсы лечения T и исход Y, если они не влияют на источник. Они используют «как будто случайное» назначение лечения для измерения результата. Другими словами, когда назначение лечения не связано с измеряемым результатом и их общими причинами, мы можем рассматривать его как рандомизированный эксперимент. Мы должны иметь в виду, что случайность, как если бы она была, обычно трудно обнаружить на практике. Причинно-следственные оценки будут очень чувствительны к нарушению предположения об исключении.
  • Модель прерывности регрессии выявляет причинные эффекты лечения в ситуациях, когда кандидаты отбираются для лечения на основе того, превышают ли их значения резкое пороговое значение или порог. В большинстве бизнес-задач, с которыми мы работаем, резкое прекращение назначения лечения не всегда существует, но этот подход широко используется в исследованиях социальной политики и в медицине.

Большинство алгоритмов, которые мы обсуждаем в этой статье, в основном смотрят на один моментальный снимок результата для эффектов лечения, а не на повторные наблюдения результатов с течением времени. Мы провели отдельное исследование, чтобы оценить задержку и ослабление эффектов лечения с течением времени, которые мы не будем обсуждать в этой статье из-за ограничений по продолжительности. Если вы хотите включить повторные наблюдения за результатом с течением времени в план исследования причинно-следственных связей, в зависимости от того, есть ли у вас данные контрольных временных рядов от единицы, не подвергавшейся лечению, вы можете рассмотреть такие подходы, как разница в разнице и синтетический контроль прерывистых временных рядов. , среди прочего. Uber также обсудил различные методы причинно-следственного вывода для наблюдений за временными рядами в своем посте.

На рисунке 1 показаны общие рекомендации по рабочему процессу для выбора причинно-следственного алгоритма для наблюдательного исследования с одним моментальным снимком результата. Имейте в виду, что этот список не является исчерпывающим, это лишь небольшое представление о подходах, которые мы используем в группе аналитики роста клиентов здесь, в Microsoft.

Методы оценки при необоснованности

Многие неоднородные методы оценки эффекта лечения теоретически верны только при соблюдении всех потенциальных искажающих факторов. Эти методы пытаются приблизиться к золотому стандарту РКИ. Мы называем их методами причинно-следственной оценки при необоснованности. Важно отметить, что любая попытка использовать эти методы без наблюдения за потенциальными искажающими факторами может уменьшить, но не устранить систематическую ошибку относительно исходных корреляций.

Методы сопоставления

Методы сопоставления параллельны распределению ковариат, которое предсказывает назначение лечения, и создают «псевдопопуляцию», в которой лечение не зависит от измеренных смешивающих переменных. Сначала они ищут единицы с контрольными переменными, которые имеют одинаковые значения, но получают различную обработку, что можно сделать post hoc, взяв обработанную единицу, а затем найдя необработанную единицу с очень похожими значениями. Эта пара называется совпадением. Следующим шагом является запись разницы в результатах между леченым и необработанным блоком в этом матче, процесс, который может напоминать RCT. Таким образом, сопоставление можно использовать для уменьшения или устранения влияния искажающих переменных на данные наблюдений при оценке эффекта лечения. Чтобы сравнить близость между двумя единицами измерения, можно использовать самые разные метрики расстояния, такие как евклидово расстояние и расстояние Махаланобиса. Как правило, показатели расстояния можно представить с помощью следующего уравнения:

где xᵢ и xⱼ обозначают характеристики блока i ᵗʰ и j ᵗʰ.

Некоторые методы сопоставления разрабатывают собственные метрики расстояния в зависимости от функции преобразования f. Одним из часто используемых методов преобразования является преобразование на основе оценки склонности. При сопоставлении оценки склонности мы сначала оцениваем оценку склонности, которую можно рассматривать как вероятность или вероятность того, что отдельная единица получит лечение. Оценка склонности может выполняться разными способами, но обычно это делается с использованием многомерных или бинарных моделей классификации, таких как логистическая регрессия, случайный лес, XGBoost и LightGBM, среди других.

Но методы сопоставления - не единственные доступные. Несколько других также рассматриваются ниже.

Методы повторного взвешивания

Взвешивание обратной склонности (IPW): Как и методы сопоставления, методы повторного взвешивания создают «псевдопопуляцию» для решения проблемы смещения выборки из-за различного распределения в обработанной и контрольной группах. Основная идея взвешивания состоит в том, чтобы присвоить соответствующую величину каждой выборке в наборе данных наблюдения, чтобы распределения в обработанной и контрольной группах были аналогичными. Затем мы можем рассчитать статистику на основе повторно взвешенного псевдопопуляции. При правильном применении взвешивание потенциально может повысить эффективность и уменьшить смещение невзвешенных оценок. Если показатель склонности e (x) представляет собой условную вероятность отнесения к лечению с учетом вектора наблюдаемых ковариат x, то в методе взвешивания результат обработанных единиц взвешивается как w (x) = 1 / e (x), в то время как блоки управления взвешиваются как: w (x) = 1 / (1- e (x))

После повторного взвешивания оценка IPW для ATE определяется как (см. Обзор причинно-следственных связей):

где n обозначает размер выборки, ê (x) - оценочная оценка склонности с учетом особенностей x, Tᵢ - назначение лечения для i ᵗʰ unit, а Yᵢ обозначает наблюдаемый результат для i ᵗʰ единицы.

Теоретические результаты показывают, что поправки на оценку скалярной склонности достаточно для устранения систематической ошибки, связанной со всеми наблюдаемыми ковариатами. Тем не менее, IPW в значительной степени полагается на правильность оценок предрасположенности, которые можно исправить с помощью вдвойне надежного обучения, как описано в следующем разделе.

Дважды надежное обучение (DR): Вдвойне надежное обучение - это метод оценки неоднородных эффектов лечения, когда лечение является категориальным и наблюдаются все потенциальные искажающие факторы / элементы контроля, но их либо слишком много для классических статистических подходов к быть применимыми, или их влияние на лечение и результат нельзя удовлетворительно смоделировать с помощью параметрических функций (см. Документацию EconML API).

Дважды надежные методы уменьшают проблему, оценивая две прогностические задачи:

  • Прогнозирование результата лечения и контроля
  • Прогнозирование лечения с помощью элементов управления

В отличие от метода двойного машинного обучения, который мы представим в следующем разделе, первая модель предсказывает результат как для лечения, так и для элементов управления, а не только для элементов управления. Затем метод объединяет эти две прогностические модели на заключительном этапе оценки, создавая модель неоднородного эффекта лечения. В отличие от взвешивания с обратной склонностью (IPW), подход DR сначала соответствует модели прямой регрессии, а затем устраняет ее, применяя метод обратной склонности к остатку этой модели, а не непосредственно к обучающей выборке. Подход позволяет использовать произвольные алгоритмы машинного обучения для двух задач прогнозирования, сохраняя при этом многие благоприятные статистические свойства, связанные с окончательной моделью (например, малая среднеквадратичная ошибка, асимптотическая нормальность и построение доверительных интервалов). Последние благоприятные статистические свойства сохраняются, если либо первая, либо вторая из двух задач прогнозирования достигает малой среднеквадратичной ошибки (отсюда и название «вдвойне надежный»).

Методы метаобучения

Алгоритмы, называемые метаобучающимися, могут использовать любые методы контролируемого обучения или регрессии в машинном обучении и статистике для оценки эффекта лечения, например, функцию условного среднего эффекта лечения (CATE), описанную в Части 1. В методах метаобучения пространство лечения должно быть дискретным. Метаобучающиеся используют базовые алгоритмы, такие как логистическая регрессия (LR), случайные леса (RF), XGBoost, байесовские деревья аддитивной регрессии (BART) или нейронные сети, среди других, - для оценки CATE. В этом разделе мы кратко представляем четыре типа метаобучающихся, включая S-, T-, X- и R -learners (см. Документация по Causal ML API ).

В настоящее время алгоритмы S -learner, T -learner и X -learner доступны как в пакетах CausalML, так и EconML. для Python. R -learner доступен в Causal ML, который совпадает с Непараметрическим оценщиком DML CATE в EconML с другими соглашениями об именах. И вообще, все Оценщики DML CATE в EconML являются специальными экземплярами R -Learner. В следующих разделах дается краткий обзор основных идей и формулировок каждого алгоритма. Ссылки на исходные статьи предоставляются для тех, кто хочет выйти за рамки общего введения и узнать больше.

S -learner: этот алгоритм оценивает целевую переменную с использованием всех ковариантных функций и индикатора обработки, не придавая индикатору обработки какой-либо особой роли. Оценка выполняется с использованием единственного алгоритма оценки, отсюда и название S -learner. Оценка состоит из двух этапов. Во-первых, прогнозирующая модель строится с использованием результата в качестве цели и контроля как для лечения, так и для других функций. Затем вычисляется разница между оценочными значениями, когда индикатор назначения лечения изменяется с контроля на лечение, при этом все другие характеристики остаются неизменными. Разница между оценочными значениями - это CATE для отдельной единицы. Различные регрессоры, такие как XGBoost, могут использоваться в качестве базового регрессора на этапе 1, и может быть выбран тот, который с наименьшей ошибкой с точки зрения SMAPE или других показателей ошибок.

  • Этап 1: оценка среднего результата μ (x) с ковариатами X и индикаторной переменной для эффекта лечения T :

  • Этап 2. Определите оценку CATE как:

T -learner: этот алгоритм оценивает функции ответа отдельно для исследуемой и контрольной групп. Во-первых, он использует базовых учащихся для оценки условных ожиданий результатов отдельно для единиц, находящихся под контролем, и тех, которые проходят лечение. Во-вторых, требуется разница между этими оценками. Мы называем общий механизм оценки функций отклика по отдельности T -learner, «T» - это сокращение от «two».

  • Этап 1: оцените средний результат μ₀ (x) и μ (x)

где μ₀ (x) = E [Y (0) | X = x] и μ₁ (x) = E [Y (1) | X = x] с использованием произвольных моделей машинного обучения.

  • Этап 2. Определите оценки CATE как

X -learner: когда реальные данные содержат больше контрольной группы, чем экспериментальной группы, вероятность переобучения экспериментальной группы при использовании T -learner в приоритете. X -learner пытается избежать этого, используя информацию из контрольной группы, чтобы получить более точные оценки для экспериментальной группы и наоборот. Подобно S- и T -learner, X -learner может использовать произвольные алгоритмы машинного обучения, такие как XGBoost, в качестве базового регрессора с наименьшей ошибкой в ​​терминах. SMAPE. X -learner основан на T -learner и использует каждое наблюдение в обучающем наборе в форме X, отсюда и его название X -ученик (см. Künzel 2017). X -learner состоит из трех этапов:

  • Этап 1: оцените средний результат μ₀ (x) и μ (x)

где μ₀ (x) = E [Y (0) | X = x] и μ₁ (x) = E [Y (1) | X = x] с использованием произвольных моделей машинного обучения.

  • Этап 2. Внесение эффектов лечения на уровне пользователя Dᵢ ¹ для пользователя i в группе лечения на основе μ₀ (x) и Dⱼ для пользователя j в контрольных группах на основе μ₁ (x) :

Затем оцените τ ₁ (x) = E [D₁ ∣ X = x] и τ ₀ (x) = E [D₀ ∣ X = x], используя модели машинного обучения.

  • Этап 3. Определите оценку CATE как средневзвешенное значение μ₁ (x) и μ (x):

где g ∈ [0,1] - весовая функция.

X -learner использует весовую функцию для минимизации дисперсии. Рекомендуется использовать оценку предрасположенности для g, но также имеет смысл выбрать g = 1 или 0, если количество обрабатываемых групп очень велико или небольшой по сравнению с количеством контрольных групп. Это означает, что точные оценки склонностей не так важны для X -learner.

R -learner: Два шага в рамках R -learner включают (как указано в Nie2017):

  • Шаг 1. Оцените предельные эффекты и склонность к лечению, чтобы сформировать целевую функцию, которая выделяет причинный компонент сигнала.
  • Шаг 2. Оптимизируйте целевую функцию, адаптирующуюся к данным.

Одним из важнейших компонентов R -learner является функция R -loss для оценки эффекта лечения с использованием перекрестной подгонки. Учитывая n независимых и одинаково распределенных примеров с (xᵢ, yᵢ, tᵢ), i = 1,…, n,, где xᵢ обозначает per- черты лица , yᵢ ∈ R - наблюдаемый результат, а tᵢ - назначение лечения. Потенциальный результат {Yᵢ (0), Yᵢ (1)} соответствует результату, который мы наблюдали бы при назначении лечения tᵢ = 0 или 1 соответственно, так что Yᵢ = Yᵢ (tᵢ). Предполагая необоснованность, т. е. назначение лечения рандомизируется, когда мы контролируем признаки xᵢ, мы оцениваем функцию CATE 𝜏= E {Y (1) −Y (0) | X = x}. Способность к лечению и условные поверхности могут быть представлены как:

Функция CATE 𝜏 ∗ (x) может быть переписана в терминах условного среднего результата следующим образом:

Первая формула называется преобразованием Робинсона для гибкой оценки эффекта лечения и основана на современных подходах к машинному обучению. Основная идея R -learner состоит в том, чтобы использовать это представление для построения функции потерь, которая фиксирует неоднородные эффекты лечения, чтобы мы могли точно оценить эффекты лечения, ища регуляризованный минимизатор этой функции потерь.

Формулу можно эквивалентно выразить как (см. Робинс, 2004):

Затем мы оцениваем функцию эффекта гетерогенной обработки 𝜏 ∗ (.) путем эмпирической минимизации потерь:

Поделившись более подробной информацией, мы разделяем данные на K (например, 5 или 10) сгибов с равными сторонами. Пусть q (.) будет отображением выборочных индексов i = 1,…, n на K складок и соответствует m ^ и ê с перекрестной подгонкой по K сгибам с помощью методов, настроенных для оптимальной точности прогнозов. Затем мы можем оценить эффект лечения с помощью версии плагина второй формулы:

Оценщики на основе леса

В лесных методах используются очень гибкие нелинейные модели эффекта неоднородной обработки. Обычно они могут хорошо работать со многими функциями. Кроме того, эти методы могут обеспечивать допустимые доверительные интервалы, несмотря на то, что они адаптируются к данным и непараметрически. Эти методы рекомендуются, если у вас много функций и вы хотите увидеть эффект неоднородности и вам нужны доверительные интервалы. Несколько часто используемых оценок - это ортогональные случайные леса, причинный лес (двойное машинное обучение леса) и лес с двойной надежностью обучаемого. Для получения более подробной информации, пожалуйста, обратитесь к документации Econ ML API.

Стратификация

Чтобы скорректировать систематическую ошибку отбора, стратификация (также известная как подклассификация или блокирование) разбивает всю группу на однородные подгруппы, где внутри каждой подгруппы в идеале обрабатываемая группа и контрольная группа схожи при определенных измерениях по ковариатам. Затем эффект лечения в каждой подгруппе можно рассчитать с помощью метода, впервые разработанного на данных РКИ. С помощью CATE каждой подгруппы лечебный эффект в заинтересованной группе может быть получен путем объединения CATE подгрупп, принадлежащих к этой группе. Например, если мы разделим весь набор данных на блоки j, ATE для стратификации будет оцениваться как:

где Ȳ(j) и Ȳ(j) - среднее значение обработанных и контрольных результатов в блок j ᵗʰ соответственно. Кроме того, q (j) = N (j) / N - это доля единиц в блоке j ᵗʰ по отношению к целым единицам. (См .: Обзор причинного вывода.)

Двойное машинное обучение

Двойное машинное обучение - это метод оценки неоднородных эффектов лечения, когда наблюдаются все потенциальные искажающие факторы, но либо их слишком много для применения классических статистических подходов, либо их влияние на лечение и результат нельзя удовлетворительно моделировать с помощью параметрических функций. В отличие от вдвойне надежных учащихся и мета-учащихся, этот метод может применяться как к дискретному, так и к непрерывному типу лечения. Этот метод сводит задачу к первому оцениванию двух прогнозных задач:

  • Прогнозирование результата с помощью элементов управления
  • Прогнозирование лечения с помощью элементов управления

Затем метод объединяет эти две прогностические модели на заключительном этапе оценки для создания модели неоднородного эффекта обработки. Подход позволяет использовать произвольные алгоритмы машинного обучения для двух задач прогнозирования, сохраняя при этом многие благоприятные статистические свойства, связанные с окончательной моделью (например, малая среднеквадратичная ошибка, асимптотическая нормальность и построение доверительных интервалов). Математически модель двойного машинного обучения построена следующим образом:

  • Этап 1:

  • Этап 2:

Линейная регрессия по остаткам:

Примечание. для 𝜃 константы - коэффициент от

где Y - наблюдаемый результат для выбранного лечения, T - это лечение, X представляет ковариаты, используемые для неоднородности, а W представляет другие наблюдаемые ковариаты, которые, по нашему мнению, влияют на потенциальный результат Y и, возможно, также на лечение T. Мы называем переменные W элементами управления. Переменные X также можно рассматривать как контрольные переменные, но они особенные в том смысле, что они являются подмножеством средств контроля, по отношению к которым мы хотим измерить неоднородность воздействия лечения. Мы будем называть их функциями.

Если вы работаете с непрерывным неоднородным лечебным пространством, в качестве алгоритма по умолчанию рекомендуется использовать двойное машинное обучение. Или, если вы работаете с дискретным неоднородным терапевтическим пространством, стоит проверить метаучеников или вдвойне надёжных учеников. Мы сравниваем более фундаментальные сведения о метаучениках с методами двойного машинного обучения в таблице 1. В таблице 1 формулы метаучеников были представлены на двух поверхностях ответа Y (0) и Y (1) в целях иллюстрации. , хотя они могут моделировать на нескольких поверхностях отклика, от Y (0) до Y (K).

Методы оценки с помощью инструментов

Инструментальная переменная - это случайная величина, которая влияет на лечение, но не оказывает никакого прямого влияния на результат, кроме как через лечение. На практике, даже при наличии ненаблюдаемых искажающих факторов (факторов, которые одновременно оказывают прямое влияние на решение о лечении в собранных данных и наблюдаемый результат), инструментальная переменная (если она существует) представляет собой подход для оценки причинных эффектов, несмотря на наличие сбивающие с толку скрытые переменные. Инструментальные переменные (IV) можно использовать для сокращения корреляций между ошибочным членом и независимыми переменными в модели, тем самым преодолевая проблемы, связанные с эндогенностью. Сделанные допущения слабее, чем допущение необоснованности, необходимое во многих других алгоритмах, таких как двойное машинное обучение или метаобучающиеся. Цена состоит в том, что, когда сохраняется несостоятельность, инструментальные оценки переменных будут менее эффективными. В сложной среде реального мира предположение о несостоятельности редко может быть выполнено. Незаметная путаница - критическая проблема причинного вывода. Когда существуют инструменты, лучше расставить приоритеты в дизайне исследования, но мы должны быть осторожны при проверке модели, чтобы убедиться, что у нас есть надлежащие и надежные инструменты, в противном случае оценки очень чувствительны к нарушениям.

В дополнение к методам IV, обсуждаемым ниже, существует несколько новых и важных методов ортогональной IV для неоднородных лечебных эффектов, таких как DMLIV (двойные инструментальные переменные машинного обучения), DRIV (вдвойне надежный IV) и Intent To Treat DRIV, доступные в EconML. , реализующие новые методы непараметрического оценивания CATE с помощью инструментов и произвольного машинного обучения. Подробнее читайте в Василис 2019.

Двойной наименьший квадрат: в обычном методе наименьших квадратов (МНК) существует основное предположение, что значение члена ошибки не зависит от переменных-предикторов. Когда это предположение нарушается, эту проблему помогает решить метод двойных наименьших квадратов. Этот анализ предполагает, что существует вторичный предиктор, который коррелирует с проблемным предиктором, но не с членом ошибки. При наличии инструментальной переменной используются следующие два метода:

  • На первом этапе мы получим прогнозируемую эндогенную переменную Ŷ₂ с помощью OLS для всех экзогенных переменных, включая все инструменты. Мы должны провести F-тест для всех инструментов, чтобы увидеть, являются ли инструменты совместно значимыми в эндогенной переменной Y₂. Инструменты должны иметь сильную корреляцию с Y₂, чтобы иметь надежные оценки 2SLS.
  • На втором этапе оценочные значения модели Ŷ₂ из первого этапа используются вместо фактических значений Y₂ проблемных предикторов для вычисления модели OLS для ответа. представляет интерес Да. Все экзогенные независимые переменные будут включены во второй этап регрессии, но не инструменты.

Двухэтапная ситовая оценка по методу наименьших квадратов (2SLS). В отличие от параметрической модели двойного метода наименьших квадратов, двухэтапная ситовая оценка по методу наименьших квадратов (2SLS) является непараметрической моделью. Мы должны указать основу сита для T, X, и Y (многочлен Эрмита или набор индикаторных функций) и количество элементов расширения базиса, которые необходимо включить. Подробнее см. Брюс 2014.

Глубокие инструментальные переменные (IV): Метод инструментальных переменных (IV) - это подход для оценки причинно-следственных связей, несмотря на наличие скрытых скрытых переменных. Настройка модели следующая:

Где E [∈ | X, W, Z] = h (X, W), так что ожидаемое значение Y зависит от (T, X, и W). Это известно как ограничение исключения. Мы предполагаем, что условное распределение F (T | X, W, Z) изменяется в зависимости от Z. Это называется релевантным состоянием. Мы хотим узнать о неоднородных эффектах лечения:

Модуль Deep IV изучает гетерогенные причинные эффекты, сводя к минимуму ошибку предсказания «сокращенной формы»:

где класс гипотез g представляет нейронные сети с заданной архитектурой.

Эта оценка получается путем моделирования F как смеси нормальных распределений, где параметры модели смеси являются выходными данными нейронной сети первого этапа, входные данные которой равны (xᵢ, wᵢ , zᵢ). Оптимизация нейронной сети первого этапа выполняется с помощью стохастического градиентного спуска по вероятности (смеси нормалей), в то время как оптимизация модели второго этапа для эффектов обработки выполняется только с помощью стохастического градиентного спуска. Результатом является оценочная функция ĝ. Чтобы получить оценку τ, мы берем разницу оценочной функции при t₀ и t₁, заменяя математическое ожидание эмпирическим средним по всем наблюдениям. с указанным x. Подробнее см. Hardford 2017.

Заключение

В этом посте мы подробно рассмотрели различные алгоритмы и предоставили информацию о выборе алгоритма для различных настроек проблемы. Одна вещь, которую мы должны иметь в виду, заключается в том, что для причинного вывода мы стремимся к надежным и достоверным причинно-следственным оценкам. Более сложная модель не всегда дает более точную оценку эффекта лечения в причинно-следственном контексте. Бизнес-цели и доступные данные являются основными драйверами выбора алгоритма. Затем мы можем попробовать сравнить несколько методов оценки.

Чтобы проверить модель, мы рекомендуем попробовать несколько алгоритмов и сравнить оценки. Мы представим более подробную информацию о проверке и применении модели в следующей статье нашей серии. Мы надеемся, что эта серия статей поможет вам решить бизнес-проблему с помощью причинного мышления. Пожалуйста, оставьте комментарий, чтобы поделиться своими сценариями приложений и методами, которые вы используете сегодня. Мы с нетерпением ждем вашего ответа.

Мы хотели бы поблагодарить школу Microsoft Advanced AI School, команду Microsoft Research ALICE, финансовую группу и команды Customer Program за то, что они были отличными партнерами в разработке и внедрении этой работы. Мы также хотели бы поблагодарить Рона Сиелински, Кейси Дойла и Дипша Менгани за помощь в рецензировании работы.

Статьи по Теме: