Публикации по теме 'deep-learning'


Этот информационный бюллетень AI - все, что вам нужно # 28
Что произошло на этой неделе в AI by Louis Горячие новости Код с помощью ИИ может быть небезопасным по своей природе, показало исследование Согласно новому исследованию с участием нескольких разработчиков, алгоритмы генерации кода оказались более небезопасными по сравнению с ручными решениями, созданными контрольной группой. группа. Нил Перри, доктор философии. кандидат в Стэнфорде и ведущий соавтор исследования также советует разработчикам перепроверять сгенерированный код. Вот..

Работа с классами Соболева в машинном обучении часть 1
Поперечники взвешенных классов Соболева с весами, являющимися функциями расстояния до некоторого h-множества: некоторые предельные случаи (arXiv) Автор: А. А. Васильева Аннотация: Здесь получены порядковые оценки поперечников весовых классов Соболева в весовом пространстве Лебега, где параметры второго веса удовлетворяют некоторым предельным условиям. 2. Энтропия классов Соболева на компактных однородных римановых многообразиях (arXiv) Автор: А. Кушпель , Ю. Левесли..

Демистификация нейронных сетей: руководство AIvance
Привет энтузиастам ИИ! В наших предыдущих постах мы исследовали увлекательный мир искусственного интеллекта (ИИ), машинного обучения (МО) и глубокого обучения (ГО). Сегодня давайте углубимся в неотъемлемую часть глубокого обучения — нейронные сети. Нейронные сети являются основой глубокого обучения. Это алгоритмы, вдохновленные человеческим мозгом, предназначенные для распознавания закономерностей. Они интерпретируют сенсорные данные посредством своего рода машинного восприятия,..

Глубокое обучение | Учебные заметки
🧠 Основные уравнения для полносвязной нейронной сети Прямое распространение: Функции стоимости: . Квадратичный . Кросс-энтропия Обратное распространение: dz2 = a2 - y dz1 = np.dot(W2.T, dz2) * relu_prime(z1) dW2 = np.dot(dz2,a1.T) / m db2 = np.sum(dz2, axis = 1, keepdims = True) / m dW1 = np.dot(dz1,x.T) / m db1 = np.sum(dz1, axis = 1, keepdims = True) / m Обновление параметров: W2 = W2 - learning_rate * dW2 b2 = b2 - learning_rate..

Лучшие варианты использования Random Forests 2023, часть 3 (машинное обучение)
Гибридная модель кригинга-случайного леса для прогнозирования свойств грунта в режиме реального времени при прокладке щитового туннеля с балансировкой давления грунта (arXiv) Автор: Цзыхэн Гэн , Чао Чжан , Юхао Жэнь , Миньсян Чжу , Жэньпэн Чен , Хунчжан Чэн . Аннотация: Разработана гибридная модель кригинга и случайного леса для прогнозирования свойств грунта в режиме реального времени перед щитом, сбалансированным по давлению грунта, путем интеграции экстраполяции кригинга и..

Как работает Spherical CNN, часть 3 (машинное обучение)
Взвешенные по спину сферические CNN (arXiv) Автор: Карлос Эстевес , Амиш Макадиа , Костас Данилидис . Аннотация: Изучение эквивариантных представлений — многообещающий способ уменьшить сложность выборки и модели и улучшить производительность обобщения глубоких нейронных сетей. Сферические CNN являются успешными примерами, производящими SO (3)-эквивариантные представления сферических входных данных. Существует два основных типа сферических CNN. Первый тип поднимает входные данные к..

Домен, смежный с машинным обучением — Основные проблемы
Одним из аспектов аспирантуры, который мне до сих пор запомнился, был упор на исследование операций, системную инженерию и практическое применение. Это был первый раз, когда я познакомился с такими методами, как оптимизация, моделирование и регрессия; Наряду с обучением и поиском мы в Kado называем их методами героев . Между академическими кругами и промышленностью существовал континуум, при этом большая часть исследовательской работы финансировалась компаниями или государством. Мы..