Публикации по теме 'machine-learning'
За гранью внимания: раскрытие возможностей моделей-трансформеров
Привет, однокурсники! Если вы следили за моими предыдущими постами, вы уже знакомы с механизмом внимания, значительным прорывом в области обработки естественного языка (NLP). Если нет, вернитесь к моему предыдущему сообщению в блоге здесь и познакомьтесь с этой увлекательной темой.
В этом блоге мы собираемся опираться на этот фундамент и исследовать одну из самых влиятельных архитектур НЛП на сегодняшний день: Трансформер. Эта революционная модель, рожденная из концепции «Внимание —..
Оперативная настройка для больших языковых моделей с логическим выводом
Введение
Быстрая настройка — это метод, который использует замороженные предварительно обученные языковые модели для последующих задач, что сводит к минимуму хранение каждой задачи и использование памяти на этапе обучения, и это полезно для больших языковых моделей (LLM), таких как GPT2, T5, GPT-J, GPT-NEO, GPT-NEOX, GPT-20B, GPT3 и т. д., где модель настолько велика, что тонкая настройка становится сложной или очень дорогой.
Параметры предварительно обученной языковой модели..
Что такое причинно-следственный анализ больших данных?
Что такое причинно-следственная связь
В отличие от корреляции, причинно-следственная связь всегда приводит к контрфактуальным результатам, в причинно-следственном анализе задача анализа данных заключается в выборочном нацеливании, например, в конкретных маркетинговых кампаниях, для измерения эффективности скидок и поведения потребителей. Когда финансовая организация хочет знать скачок клиентов из одной финансовой программы…
Различные способы обучения тестовых сплитов (часть 3: использование .Sample и .Index)
с Python доктора Элвина Анга
https://www.alvinang.sg/s/Various_Ways_of_Train_Test_Splits_with_Python_by_Dr_Alvin_Ang-1.ipynb
Шаг 1. Введите набор данных
Шаг 2: Тренировка тестового сплита
X_train = df.sample(frac=0.7, random_state = 0)
y_train = X_train.pop(‘MEDV’)
X_test = df.drop(X_train.index)
y_test = X_test.pop(‘MEDV’)
О докторе Элвине Анге
Доктор Элвин Анг получил степень доктора философии, магистра и бакалавра в NTU, Сингапур. Ранее он был..
Обучите и разверните модель классификации текста с помощью Spark NLP, трансферного обучения BERT, MLflow и…
Пошаговые инструкции, как обучить модель классификации двоичного текста с помощью переносного обучения на предварительно обученной модели BERT (двунаправленные представления кодировщика от преобразователей) и делать пакетные прогнозы с помощью мелкозернистой модели на новых данные
Репозиторий GitHub с полным кодом блокнота здесь
Создайте кластер Databricks ML с установленной библиотекой Spark NLP
Databricks поставляется с средами выполнения машинного обучения , в..
Обработка выбросов и ее влияние на модели машинного обучения.
Привет всем энтузиастам данных. Во-первых, давайте разберемся с выбросами. Выбросы — это точки данных, которые значительно отличаются от остальных данных. Это влияет на статистический анализ данных и влияет на эффективность нашей модели машинного обучения. Чтобы максимизировать точность модели, мы должны удалить выбросы из набора данных.
Алгоритмы, использующие метрику расстояния или основанные на статистических допущениях (например, линейная регрессия), более чувствительны к выбросам,..
Освоение генеративного ИИ: подробное руководство по учебным ресурсам и учебное пособие
[ Статья № 02] Руководство по ресурсам
Генеративный ИИ – это увлекательная и быстро развивающаяся область, в которой сочетаются машинное обучение , творчество и инновации.
Независимо от того, являетесь ли вы специалистом по данным , начинающим энтузиастом ИИ или творческим профессионалом , стремящимся использовать творческий потенциал ИИ, это руководство поможет вам к пониманию и освоению генеративного ИИ .
Здесь вы найдете тщательно отобранный список учебных..