Публикации по теме 'deep-learning'


Объяснение и реализация нейронных сетей (код включен!)
Сегодняшний рассказ о том, как работают нейронные сети. Во-первых, мы собираемся их визуализировать и объяснить их структуру: Мы видим, что цепочка блоков на приведенном выше графике представляет собой нейрон, который по сути представляет собой структуру изображения ниже: Нейрон на входном этапе получает взвешенную сумму N независимых переменных и добавляет к ней постоянное значение, называемое смещением. На его этапе вывода возвращается результат предыдущего процесса как..

Как бэкдор-атаки работают в конвейерах машинного обучения, часть 8
VillanDiffusion: унифицированная структура бэкдор-атак для моделей распространения (arXiv) Автор: Шэн-Йен Чжоу , Пин-Ю Чен , Цун-И Хо . Аннотация: Диффузионные модели (DM) — это современные генеративные модели, которые изучают обратимый процесс искажения путем итеративного добавления шума и шумоподавления. Они являются основой многих генеративных приложений ИИ, таких как условная генерация текста в изображение. Однако недавние исследования показали, что базовые безусловные DM..

Как работает декомпозиция LU, часть 5 (машинное обучение)
Рандомизированное разложение LU (arXiv) Автор: Гиль Шабат , Янив Шмуэли , Ярив Айзенбуд , Амир Авербух . Аннотация: Мы представляем быстрый рандомизированный алгоритм, который вычисляет LU-разложение низкого ранга. В нашем алгоритме используются методы типа случайных проекций для эффективного вычисления низкоранговой аппроксимации больших матриц. Алгоритм рандомизированного LU можно распараллелить и дополнительно ускорить за счет использования разреженных случайных матриц на шаге..

Как работает разделение Дугласа-Рэчфорда, часть 5 (машинное обучение)
Расщепление Дугласа-Рахфорда и ADMM для невыпуклой оптимизации: алгоритмы ускоренного и линейного поиска типа Ньютона (arXiv) Автор: Андреас Темелис , Лоренцо Стелла , Панайотис Патринос . Аннотация: Андреас Темелис , Лоренцо Стелла , Панайотис Патринос . 2. Параметризованный алгоритм разделения Дугласа-Рахфорда для невыпуклой оптимизации (arXiv). Автор: Фэнмяо Бянь , Сяоцюнь Чжан Аннотация: в данной статье мы изучаем параметризованный метод расщепления Дугласа-Рэчфорда..

Обнаружение заражения листьев яблони
Как и любое другое растение, листья яблони подвержены многим заболеваниям. В больших масштабах эти заболевания вредны для растений, и ранняя диагностика может помочь в ранней профилактике, обеспечивающей качество растений. Сегодня мы стремимся разработать модель нейронной сети, которая поможет в этой диагностике, определяя болезнь листьев яблони, просто «взглянув на нее». С помощью этой модели наша цель состоит в том, чтобы классифицировать болезнь листьев яблони по одной из трех..

Адресация контента и как ее можно использовать для отслеживания генеративного ИИ
В последние годы генеративный ИИ добился значительных успехов: такие алгоритмы, как GPT-3 и DALL-E, дали замечательные результаты в обработке естественного языка и создании изображений. Однако, как и в случае с любыми технологическими инновациями, существуют опасения по поводу возможного неправильного использования этих алгоритмов. Одним из возможных решений этих проблем является адресация контента, метод, который может помочь отслеживать генеративный ИИ. Так что же такое адресация..

Важные уравнения глубокого обучения
Модели глубокого обучения по сути являются математическими моделями. Многие математические уравнения работают в фоновом режиме для архитектур нейронных сетей. Здесь я попытался составить некоторые из важных математических уравнений, которые составляют основу нейронных сетей и глубокого обучения. Нейронная архитектура Один нейрон: Линейная регрессия с добавленным элементом нелинейности с использованием функций активации. Линейная регрессия: Wx+b Выход одного нейрона: A =..