Публикации по теме 'black-box'


1D и 2D Gpyopt Байесовская оптимизация экспериментов в реальном мире, явный пример кода
Это пример кода, необходимого для запуска байесовской оптимизации неизвестной целевой функции «черный ящик» с дискретными точками данных, включенными в пример кода, чтобы вы могли легко изменять числа и легко выполнять собственную оптимизацию. Это предназначено для того, чтобы помочь исследователям быстро и легко проводить свои собственные эксперименты, не тратя много времени на изучение python, numpy, GPyOpt и т. д. Пример кода 1D Этот код можно использовать для оптимизации функции..

За пределами черного ящика: риски и выгоды абстракции
Программистам не чуждо понятие абстракции, и хотя в другой области оно может быть незнакомо как слово, я уверен, что они используют его каждый день. Абстракция — это концепция построения черного ящика и его повторного использования, надстройки над ним и сокрытия информации под ним. Думайте об этом как о черном ящике, где вы знаете, что такое входы и выходы, и вы можете использовать его без необходимости знать, что происходит внутри них. В электронике вам не нужно точно знать, что..

Черный ящик мышления-учись трудным вещам-
Предположим, вы хотите узнать, как работает функция, метод или логика, не углубляясь в детали, что означает абстрагирование от мелочей, из которых состоит то, что вы хотите изучить (как правило, это сложно изучить за короткое время) и рассмотрение Большая фотография. Определение В научных исследованиях социальный процесс черного ящика основан на абстрактном понятии черный ящик . Цитируя Бруно Латура , черный бокс — это «способ, которым научная и техническая работа становится..

С ростом вычислительной мощности и появлением больших данных методы, основанные на данных, все чаще используются во всех областях и…
С ростом вычислительной мощности и появлением больших данных методы, основанные на данных, все чаще используются во всевозможных областях и показали превосходную производительность для людей во многих задачах, таких как недавняя победа Google AlphaGo над чемпионом среди людей Ке Цзе. В то время как известные ученые и бизнесмены предупреждают об опасностях будущего всеобщего искусственного интеллекта, который превзойдет человеческий, алгоритмы, управляемые данными, уже влияют на жизнь..

Нет веских причин не доверять ИИ
Не знать, как машины принимают те или иные решения, не так уж и сложно. Отставание между теорией и экспериментами никогда не было веской причиной, чтобы остановить продвижение науки вперед, иногда в темные или, по крайней мере, слабо освещенные области. Если можно построить машину, которая будет давать правильные ответы, значит, существует эмпирическая основа для доверия. Основная трудность в понимании того, что машины делают в ИИ, чаще всего заключается в масштабе процессов, которые они..

Как объяснимого ИИ: объяснимость после моделирования
В первых двух частях нашего обзора Как XAI мы рассмотрели методологии объяснимости до моделирования и объяснимого моделирования , которые фокусируются на объяснимости на этапе набора данных и во время разработки модели. Тем не менее, это относительно второстепенные области интереса по сравнению с объяснимостью постфактум, а объяснимость после моделирования - это то, на чем большинство ученых XAI сосредоточили свое внимание и исследования. Постмоделирующая объяснимость В..

Зачем объяснять модель черного ящика?
Автор: Амирхоссейн Нуранизаде Введение В последние годы доступность больших объемов данных и вычислительных ресурсов в сочетании с технологией оптимизации привела к тому, что модели глубокого обучения преуспели в многочисленных задачах обучения представлению и принятия решений из различных областей. В некоторых случаях эти модели даже превышают точность человеческого уровня, демонстрируя, что искусственный интеллект может выполнять задачи, сравнимые с экспертами в области человека...