Публикации по теме 'artificial-intelligence'


Как работают атаки с инверсией модели, часть 8 (машинное обучение)
Обманите своих врагов: проксимальное градиентное разделение обучения для защиты от атак с инверсией модели на данные IoMT (arXiv) Автор: Сандер Али Ховаджа , Ик Хён Ли , Капал Дев , Мухаммад Аслам Джарвар , Наваб Мухаммад Фасих Куреши . Аннотация: В последнее десятилетие произошло быстрое внедрение искусственного интеллекта (ИИ), особенно сетей глубокого обучения, в экосистему Интернета медицинских вещей (IoMT). Однако недавно было показано, что сети глубокого обучения могут быть..

Машинное обучение: интуиция против математики?
Распространенная дилемма для всех, кто занимается искусственным интеллектом / наукой о данных, состоит в том, сосредоточиться ли в первую очередь на математике и понять, как работает реальный алгоритм, или получить работающее интуитивное представление об алгоритме и сосредоточиться на его применении. Чаще всего ответ на эту дилемму для большинства людей находится где-то где-то посередине. Внутренние чувства и машины «Не пытайтесь постичь своим умом. Ваш разум очень ограничен...

Понимание преобразования Лежандра (математика)
1. Геометрия максимально-энтропийных доказательств: стационарные точки, выпуклость, преобразования Лежандра, экспоненциальные семейства ( arXiv ) Автор: П. Г. Л. Порта Мана Аннотация: эта заметка представляет собой геометрический комментарий к доказательствам максимальной энтропии. Его цель — проиллюстрировать геометрические структуры, используемые в таких доказательствах, более подробно объяснить, почему максимизация энтропии может быть превращена в минимизацию..

Создание индивидуальных чат-ботов для Интернета с использованием gpt-3.5-turbo,
Резюме, исходный код, готовый к использованию, и пример чат-бота, с которым можно сразу поиграть. Отличные новости для разработчиков из OpenAI OpenAI вчера выпустила конечные точки API для Whisper , своего механизма распознавания речи, и для GPT-3.5-turbo , который, как объясняется на их веб-сайте, является фактической языковой моделью, лежащей в основе знаменитого ЧатGPT: OpenAI API API для доступа к новым моделям ИИ, разработанным OpenAI..

Работа с концепцией неравенства Дженсена часть 2 (оптимизация машинного обучения)
Неравенства Дженсена в двух и трех измерениях (arXiv) Автор : Николаос Д. Багис Аннотация: Доказаны симметричные неравенства определенного типа в R2 и R3, встречающиеся во многих задачах анализа. Эти неравенства являются обобщениями неравенства Йенсена от одной переменной к двум и трем переменным. 2. Функция потерь, основанная на неравенстве Дженсена второго порядка, и его применение к выводу о вариациях частиц (arXiv) Автор: Футоши Футами , Томохару Ивата , Наонори Уэда ,..

Варианты использования непрерывной нормализации потоков в машинном обучении, часть 6
Discretize-Optimize vs. Optimize-Discretize для регрессии временных рядов и непрерывной нормализации потоков (arXiv) Автор: Дерек Онкен , Ларс Рутотто . Аннотация: мы сравниваем подходы дискретизации-оптимизации (Disc-Opt) и оптимизации-дискретизации (Opt-Disc) для регрессии временных рядов и непрерывных нормализующих потоков (CNF) с использованием нейронных ОДУ. Нейронные ОДУ — это обыкновенные дифференциальные уравнения (ОДУ) с компонентами нейронной сети. Обучение нейронного ОДУ..

Распаковка моделей черного ящика: объяснимый ИИ для моделей глубокого обучения
Из приведенного выше рисунка видно, что по мере увеличения сложности модели машинного обучения точность увеличивается. Однако интерпретируемость снижается. Нам нужны методы, которые могут иметь некоторый уровень интерпретируемости и для моделей черного ящика. Вот здесь-то и появляется Объясняемый ИИ. Модели глубокого обучения труднее всего интерпретировать, и чем сложнее и глубже нейронная сеть, тем сложнее предложить какую-либо объяснимость. В различных исследованиях было..