С момента появления машинного обучения мы использовали знания человеческого интеллекта для создания искусственного интеллекта. В этой статье я хочу соединить эти две части интеллекта с ключевой концепцией из, казалось бы, несвязанной области — антропологии. Как известно, антропология изучает людей и их эволюцию. Есть некоторые превосходные работы антропологов, которые можно использовать, чтобы лучше понять человеческое обучение. В свою очередь, это понимание может быть использовано для разработки методов машинного обучения.

Для начала возьмем ключевое понятие из антропологии — «структурализм» Леви Стросса. Он говорит, что человеческое обучение есть не что иное, как ментальная конструкция человеческого разума вместе. И одна из основных предпосылок этой теории заключается в том, что ментальная конструкция состоит из «Бинарных противоположностей», что означает, что на подсознательном уровне человек думает в терминах бинарных противоположностей – например, «Он Герой или Он злодей!», «Эта машина хороша или плоха!», «Это кажется правильным или неправильным!» Такой подход изначально помогает нам эффективно принимать сложные решения! Изначально наше мышление идет точно так же, как дерево, состоящее из ветвей, представляющих противоположности.

Если мы используем этот кладезь информации о человеческом обучении в области машинного обучения, мы можем добиться значительных успехов в создании сложного «ИИ». Что представляет собой «бинарная противоположность» в машинном обучении? Ответ: «Деревья решений». Тот, который имеет среднее значение деревьев решений, называется «Случайный лес» и «XGBoost». Доказано, что эти модели машинного обучения очень эффективны при решении задач прогнозирования в реальном бизнесе, а также в соревнованиях Kaggle. Более того, дерево решений имеет то преимущество, что с его помощью легко объяснить, почему модель предсказала именно то, что предсказала.

Недавно я прочитал одну интересную модель, которая пытается объединить нейронные сети и деревья решений. Это называется NBDT (Neural Backed Decision Trees). Модель имеет основу нейронной сети, но выходной слой заменен деревом решений. Любую нейронную сеть можно обернуть в NBDT. Интересно посмотреть, как это может сделать модель объяснимой, одновременно повышая точность обычных нейронных сетей в задачах классификации.

Итак, если мы направим наши усилия на разработку такой гибридной модели деревьев решений и нейронных сетей/глубокого обучения, кто знает? Возможно, мы могли бы удивить себя тем, что мы развиваем, используя этот крошечный, но мощный секрет человеческого обучения.

Ресурсы:
https://towardsdatascience.com/what-explainable-ai-fails-to-explain-and-how-we-fix-that-1e35e37bee07

https://medium.datadriveninvestor.com/research-on-neural-backed-decision-trees-algorithms-111af8e2f92c