Публикации по теме 'big-data'


Несовершенная информация, несовершенный сверхчеловеческий ИИ
Следует ли позволить ИИ делать наши ставки? Facebook и Карнеги-Меллон. Исследователи ИИ только что создали ИИ, который может побеждать людей в покере . Это грандиозное достижение. В покере нет оптимального ответа, нет выигрышной серии ходов. Вместо этого есть лучший вариант, чтобы максимизировать вознаграждение и минимизировать риск. Но можем ли мы ответственно применять агентов, обученных добиваться успеха в сценариях с неполной информацией? Каким образом эти типы..

Эпично, дай пять, мы просто превзошли корпоративный алгоритм
Если вы никогда не задумывались об алгоритме предсказания номеров лотереи или лиги фэнтези-футбола, то это будет скучно. Но если вы фанат секретной науки о данных, то присоединяйтесь ко мне в эпической пятерке! Мы только что завершили кодирование инструмента кластерного анализа данных: соревнование длилось 90 минут, мы закончили менее чем за час. Проблемное пространство обычно составляет O (n³) и похоже на вашу классическую задачу коммивояжера. У нашего клиента Слалом возникла..

Как изменятся данные «Мировая экономика 2019»
Мы находимся в мире, где данные перемещаются с высокой скоростью через Интернет, люди каждый момент генерируют новые данные в результате различных действий, таких как проверка своих каналов Facebook, простой поиск чего-либо в Google или даже покупка акций компании, котирующейся на фондовой бирже. , каждое новое действие создает огромное количество данных в эти дни. Поскольку все больше и больше людей подключаются к Интернету, объем данных в следующем году будет измеряться йоттабайтами...

Оптимизация времени выполнения в Pandas
В жизни программиста много раз бывает, что он взламывает какой-то код, запускает его и разочаровывается во времени выполнения. Затем они вынуждены вернуться к чертежной доске и оценить свой подход. Такие времена — прекрасные возможности для роста знаний. Это один из тех моментов. Прежде чем вы попытаетесь вникнуть в это объяснение, позвольте мне показать вам результаты, чтобы вы увидели ценность прочтения оставшейся части. На следующей диаграмме показано время выполнения для обработки..

Большие данные
Большие данные — это большие объемы, высокая скорость и/или разнообразие информационных ресурсов, требующих рентабельных, инновационных форм обработки информации, которые обеспечивают более глубокое понимание, принятие решений и автоматизацию процессов. Большие данные состоят из множества компонентов, и иногда бывает сложно быстро их понять. Большие данные — это не что иное, как любые данные, которые очень велики для обработки и получения на их основе выводов. Слишком большие..

Развертывание пользовательской модели машинного обучения в виде REST API с помощью AWS SageMaker
Автор: Нареш Редди Введение SageMaker — это полностью управляемая служба машинного обучения. Он обеспечивает поддержку создания моделей с использованием встроенных алгоритмов, а также встроенную поддержку собственных алгоритмов и платформ машинного обучения, таких как Apache MXNet, PyTorch, SparkML, Tensorflow и Scikit-Learn. Почему SageMaker? ● Разработчикам или специалистам по данным не нужно беспокоиться об управлении инфраструктурой и использовании кластера, и они могут..

Pachyderm 1.5: поддержка графического процессора, пользовательский интерфейс, расширенные функциональные возможности конвейера, автоматическое масштабирование и многое другое.
Сегодня мы рады анонсировать Pachyderm 1.5! Установите его сейчас или перенесите существующее развертывание Pachyderm . Для новичков в проекте Pachyderm - это система с открытым исходным кодом для распределенной конвейерной обработки данных и управления версиями данных. Pachyderm позволяет создавать конвейеры данных, состоящие из любых языков / фреймворков, редактировать ввод и вывод данных на каждом этапе этих конвейеров и отслеживать полное происхождение любых результатов...