Публикации по теме 'nearest-neighbors'


Поиск ближайших соседей с помощью Qdrant и FiftyOne
Использование FiftyOne и Qdrant для создания классификаций в вашем наборе данных с использованием встраивания моделей Встраивания нейронных сетей представляют собой низкоразмерное представление входных данных, которое дает начало множеству приложений. У вложений есть некоторые интересные возможности, поскольку они способны фиксировать семантику точек данных. Это особенно полезно для неструктурированных данных, таких как изображения и видео, поэтому вы можете кодировать не только..

Алгоритм ближайших соседей
Вероятно, самый простой алгоритм, который приходит мне на ум, когда я думаю об обучении с учителем, — это алгоритм ближайших соседей. Вам не нужно иметь какой-либо опыт машинного обучения, чтобы понять этот алгоритм. Итак, давайте погрузимся в него и посмотрим, о чем вся эта суета. Я также расскажу об основных вопросах, связанных с ближайшими соседями, которые задают на собеседовании при приеме на работу в сфере машинного обучения. Этот блог лучше послужит вашей цели, если вы..

Алгоритм «любопытного соседа»: kNN — Приготовьтесь к k-Nearest Snoops (kNS)!
Эй, любопытные умы! Сегодня мы погружаемся в мир машинного обучения с изюминкой — представляем веселое альтернативное название алгоритма k-Nearest Neighbours (kNN): алгоритм Nosy Neighbor, также известный как k-Nearest Snoops (kNS)! Сценарий: Представьте, что вы живете в дурацком районе, наполненном причудливыми персонажами, где все всегда суют свой нос в дела друг друга! 🕵️‍♀️ Представлен алгоритм «любопытного соседа»: Как и те любопытные соседи, которые знают обо всем, что..

Векторные базы данных для датацентрического ИИ
Векторные базы данных — один из новейших инструментов в области MLOps / Data Engineering. Они спроектированы так, чтобы быть эффективными при запросах ближайших соседей по сравнению с вложениями, обеспечивая при этом простой интерфейс CRUD для удобства сопровождения. Вложения — это выходные данные слоя модели глубокого обучения по отношению к входным данным (одна точка данных). Это выученные представления, в которых объекты одного класса проецируются рядом друг с другом. Лучшие..

Использование Word2vec не только для текста
Недавно я прочитал несколько статей, которые являются хорошими примерами тенденции, когда компании используют модели, подобные word2vec, для изучения встраиваний, которые представляют собой компактное векторное представление объектов. В этом посте, первом из трех, будет рассказано, как Best Buy, Capital One, Facebook и Grubhub используют машинное обучение для изучения встраивания, чтобы лучше понимать своих клиентов и предоставлять этим клиентам персонализированные рекомендации. Лучшее..

k-Ближайший сосед: прогнозирование тяжести маммографического массового поражения.
«Немедленно изменив врачей, [алгоритм] позволит нам ускорить своевременную диагностику потенциально опасного для жизни состояния». - Доктор Рэйчел Коллкут. В этой статье сформулированы основные предпосылки, необходимые для понимания k-ближайшего соседа и настройки гиперпараметров. Обучение на основе экземпляров (также известное как обучение на основе памяти ) - это семейство алгоритмов обучения, которые вместо выполнения обобщения точек данных пытаются сравнить новые экземпляры..

Серия K-Ближайшие соседи
Введение в расширенное машинное обучение В сентябре WWCode Data Science провела 6 занятий по машинному обучению. В этой статье мы расскажем о первом занятии, посвященном презентации K-Nearest Neighbor , где выступит Снеха Танасекаран. Что такое ближайший сосед по K? В машинном обучении это алгоритм классификации, основанный на том, что похожие случаи с похожими метками классов всегда находятся рядом. Он использует сходство функций (метрики расстояния) для прогнозирования..