Публикации по теме 'artificial-intelligence'


Как закодировать веб-парсер
Как закодировать парсер с помощью Requests и Beautiful Soup Что такое парсер? «Веб-скрейпер», также называемый «веб-сборщиком» или «веб-извлекателем данных», представляет собой программу, которая собирает и извлекает («извлекает») информацию из Интернета. Получение контента с длинной страницы или нескольких страниц веб-информации можно рассматривать как простой тип веб-скрапинга. Одним из преимуществ парсинга веб-страниц является то, что он позволяет нам находить актуальную и..

Создание модели распознавания лиц с помощью каскада Хаара в Google Colab
Создание модели распознавания лиц с помощью каскада Хаара в Google Colab Увлекательный мир распознавания лиц с помощью алгоритма Haar Cascade Всем привет! В этом сообщении блога мы исследуем увлекательный мир распознавания лиц с помощью алгоритма Haar Cascade. Я проведу вас через процесс внедрения модуля Haar Cascade и отображения обнаруженных лиц в окне в знакомой среде Google Colab. Итак, приступим! Шаг 1. Настройка Google Colab Google Colab — отличная платформа для..

Проверка на практике! Действительно ли глубокое обучение стоит всей шумихи?
Глубокое обучение, по крайней мере, последние 5 лет, находится на вершине списка модных словечек в технологиях. Он стал настолько популярным, что в наши дни термины «искусственный интеллект» и «глубокое обучение» стали синонимами. Огромная шумиха вызвана тем, что такое глубокое обучение и на что оно способно. Но, как это часто бывает, большая часть этой шумихи не совсем соответствует действительности. В этом посте давайте сделаем шаг назад и посмотрим, что именно делает глубокое..

Исследования на основе кубических поверхностей, часть 1 (машинное обучение)
Вопросы о динамике на естественном семействе аффинных кубических поверхностей (arXiv) Автор : Хулио Ребело , Роланд Рёдер Аннотация: Ставится ряд вопросов о динамике группы голоморфных автоморфизмов аффинных кубических поверхностей. SA,B,C,D={(x,y,z)εC3:x2+y2+z2+xyz=Ax+By+Cz+D}, где A, B, C и D — комплексные параметры. Это групповое действие описывает монодромию знаменитого уравнения Пенлеве 6, а также естественную динамику группы классов отображений на многообразиях характеров..

Архитектура Трансформера
Transformer — это модель, основанная на внимании, которая увеличивает скорость обучения. Распараллеливание — вот что делает Transformer уникальным. Многие модели построены на этом фундаменте. Исследователи из Google и Университета Торонто разработали «Трансформеры» в 2017 году изначально для перевода. Три основные концепции, лежащие в основе Трансформеров: 1. Позиционное кодирование . При языковой обработке важен порядок слов. Модель Transformer берет все слова во входной..

Приложения трансферного обучения, часть 3 (машинное обучение)
Контрастная дистилляция — это эффективная сэмпловая политика самоконтроля потерь для трансферного обучения (arXiv) Автор: Крис Ленгерих , Габриэль Синнев , Эми Чжан , Хью Лезер , Курт Шустер , Франсуа Шартон , Чарисс Редвуд . Аннотация: традиционные подходы к RL были сосредоточены на изучении политики принятия решений непосредственно из эпизодических решений, при этом медленно и неявно изучая семантику композиционных представлений, необходимых для обобщения. В то время как..

Краткая история искусственного интеллекта
Первые концепции искусственного интеллекта Еще до того, как у нас появилась технология для этого, научная фантастика изображала ИИ во многих формах, от оловянного человечка в «Волшебнике страны Оз» до робота-гуманоида, выдающего себя за Марию в «Метрополисе». К 1950-м годам у нас было поколение ученых, математиков и философов, которые культурно усвоили концепцию искусственного интеллекта. Алан Тьюринг был английским математиком, исследовавшим математические возможности..