Публикации по теме 'tpu'


TPU — способ ускорения машинного обучения от Google
Google анонсировала свой новый продукт Tensor Processing Unit, более известный как TPU, на конференции I/O Developers в прошлом месяце. TPU назван в честь программного обеспечения TensorFlow, которое он использует для своих программ машинного обучения. Генеральный директор Google Сундар Пичаи заявил, что он обеспечивает на порядок лучшую производительность на ватт, чем все существующие чипы для задач машинного обучения. TPU потенциально может ускорить процессы машинного обучения,..

Создавайте искусственный интеллект, который работает в автономном режиме, с Coral Dev Board, Edge TPU и TensorFlow Lite
Автор: Дэниел Ситунаяке ( @dansitu ), защитник разработчиков TensorFlow Lite. Когда вы думаете об оборудовании, на котором работает машинное обучение, вы можете представить себе бесконечные ряды энергоемких процессоров, обрабатывающих терабайты данных в удаленной серверной ферме, или здоровенные настольные компьютеры, заполненные банками графических процессоров. Вы вряд ли вообразите интегральную схему размером 40 мм x 48 мм, которая аккуратно разместилась бы на макетной плате размером..

TFDevSummit2019: ТПУ Coral Edge
Новое оборудование Google для машинного обучения на периферии Специализированные TPU Google быстро развиваются и обеспечивают экономичное повышение производительности машинного обучения при работе в облаке. В настоящее время Google предоставляет плату для разработки, которая представляет собой полноценную систему, подобную Raspberry Pi, со встроенным пограничным TPU. Эта плата, получившая название Коралл , обеспечивает энергоэффективное ускорение логического вывода и..

Эффективное обучение и использование моделей NLU и NLG
Вступление Сколько из нас пробовали обучить простого чат-бота нескольким специальным выражениям? На первый взгляд это может показаться простым и бесполезным занятием. Но когда дело доходит до языковых моделей и хороших возможностей передачи и обобщения, мы не можем полагаться ни на какие существующие готовые решения. Следует тщательно проанализировать все последствия и требования, которые возникают при обучении с нуля и с использованием современных языковых моделей (SOTA), например БЕРТ..

Решение проблемы обнаружения объектов с помощью TPU Google
Недавно я участвовал в конкурсе по машинному обучению на Kaggle. Это был трек Google Open Images 2019 Challenge - Object Detection. Я был очень ограничен во времени: у меня было всего четыре недели, а обучение одной модели занимает около двух недель с 4 GPU 1080Ti. Но мне посчастливилось получить несколько кредитов TPU от Google. Поэтому я решил попробовать. Вот история. Что такое ТПУ? TPU - это специализированные микросхемы, которые хорошо справляются с матричным умножением...

Установка PyTorch XLA в Google Colab без ошибок!
Очень часто люди, работающие над Google Colab, пытаются установить torch-xla с помощью следующей команды: !pip install cloud-tpu-client==0.10 https://storage.googleapis.com/tpu-pytorch/wheels/torch_xla-1.9-cp37-cp37m-linux_x86_64.whl ИЗМЕНИТЬ : По состоянию на 14 сентября 2021 года колесо torch-xla-1.9 было исправлено, как сообщается на вкладке "Проблема" GitHub (" #3121 "). Итак, теперь любой может просто использовать !pip install cloud-tpu-client==0.10..

Вопросы по теме 'tpu'

Есть ли способ использовать несколько правильных показателей для обучения keras на TPU?
Я сделал небольшую модель с помощью Keras в лаборатории Google. И я вижу неправильные показатели, когда запускаю обучение на TPU. Когда я запускаю обучение на CPU / GPU, конечно, метрики m1 и m2 показывают правильное число. (см. код ниже) Но...
277 просмотров

Ошибка Colab TPU - InvalidArgumentError: неподдерживаемый тип данных для TPU: double, вызванный выходом cond_8 / Merge: 0
Я пытаюсь выполнить базовую классификацию символов в Google Colab с помощью TPU. Я получаю следующую ошибку: InvalidArgumentError: Unsupported data type for TPU: double, caused by output cond_8/Merge:0 Я не знаю, в чем проблема, поскольку я...
990 просмотров

Подключите Colab к платному ТПУ
Я хочу подключить Colab к ПЛАТНОМУ TPU (обновление с бесплатного TPU). Я создал ключ JSON с помощью этого руководства: https://cloud.google.com/docs/authentication/production#auth-cloud-explicit-python , а затем загрузил его в Colab. Я могу...
696 просмотров

Google Cloud VM по-прежнему использует CPU вместо TPU для выполнения скрипта Python/Tensorflow
Я настроил машину TPU в Google Cloud и думаю, что сделал это правильно, потому что когда я запускаю ctpu status , он возвращает RUNNING . Однако у меня есть скрипт Python, который я пытаюсь запустить, и я хочу, чтобы он использовал TPU. Однако...
56 просмотров

AttributeError: Tensor.name не имеет смысла, когда включено активное выполнение. при обучении на ТПУ в self.optimizer.apply_gradients
У меня есть код, который отлично работает на графическом процессоре, но для TPU я получаю сообщение об ошибке, начиная с: self.optimizer.apply_gradients(zip(gradients, trainable_vars)) Что говорит AttributeError: Tensor.name is meaningless when...
562 просмотров
schedule 02.05.2024

Зона Google Colab
Мне нужно разместить свой набор данных в GCS в той же зоне, чтобы не платить за обучение на TPU и чтение больших наборов данных из GCS. Кто-нибудь знает, как узнать текущую зону инстанса Google Colab?
254 просмотров

USB-ускоритель TPU для Coral Board
Я столкнулся с проблемой подключения USB-ускорителя TPU к Coral Dev Board. Я следую инструкциям, приведенным в здесь Но успеха нет. Я попытался найти порт, и вот результат на экране терминала: Я пробовал использовать разные числа для...
147 просмотров
schedule 20.03.2023

Colab - Сохранить модель / историю после обучения TPU
Я использую TPU, предоставленный Colab, и обучение проходит хорошо. Но есть некоторые проблемы, когда я использую обратные вызовы, пытаясь сохранить модель и потерю обучения. Сначала я монтирую свой диск и передаю путь, то есть...
69 просмотров
schedule 05.06.2022