Хранилище Google Colab

Кто-нибудь знает пределы хранилища для запуска Google Colab? Кажется, у меня заканчивается место после загрузки zip-файла 22 ГБ, а затем попытки его распаковать, предполагая, что доступно <~ 40 ГБ хранилища. По крайней мере, это мой опыт работы с экземпляром TPU.


person Ferhat    schedule 27.10.2018    source источник


Ответы (2)


Да, объем локального хранилища ноутбука Colab сейчас составляет около 40 ГиБ. Один из способов узнать точное значение (в Python 3):

import subprocess
p = subprocess.Popen('df -h', shell=True, stdout=subprocess.PIPE)
print(str(p.communicate()[0], 'utf-8'))

Однако для больших объемов данных локальное хранилище - неоптимальный способ подачи питания на TPU, который не подключен напрямую к машине, на которой работает ноутбук. Вместо этого рассмотрите возможность хранения большого набора данных в хранилище GCP и получения этих данных из записной книжки Colab. (Более того, объем локального хранилища Colab может измениться, а срок действия самого ноутбука Colab истечет через несколько часов, вместе с локальным хранилищем.)

Взгляните на канонический блокнот TPU Colab. Внизу приведены некоторые следующие шаги, которые включают ссылку на Поиск Шекспира с помощью TPU. В этой записной книжке находится следующий фрагмент кода, который демонстрирует аутентификацию GCP для вашего Colab TPU. Это выглядит так:

from google.colab import auth
auth.authenticate_user()

if 'COLAB_TPU_ADDR' in os.environ:
  TF_MASTER = 'grpc://{}'.format(os.environ['COLAB_TPU_ADDR'])

  # Upload credentials to TPU.
  with tf.Session(TF_MASTER) as sess:    
    with open('/content/adc.json', 'r') as f:
      auth_info = json.load(f)
    tf.contrib.cloud.configure_gcs(sess, credentials=auth_info)
  # Now credentials are set for all future sessions on this TPU.
else:
  TF_MASTER=''
person Derek T. Jones    schedule 20.11.2018
comment
@ DerekT.Jones Я работаю в колабе с keras, а не чистым тензорным потоком. Это означает, что я не объявляю tf.session. Будет ли приведенный выше код работать и в моем случае? - person NeStack; 19.08.2019

В настоящее время объем локального хранилища в colab зависит от выбранного типа среды выполнения аппаратного ускорителя:

# Hardware accelerator none
!df -h .
Filesystem      Size  Used Avail Use% Mounted on
overlay          49G   22G   26G  46% /

# Hardware accelerator GPU
!df -h .
Filesystem      Size  Used Avail Use% Mounted on
overlay         359G   23G  318G   7% /

# Hardware accelerator TPU
!df -h .
Filesystem      Size  Used Avail Use% Mounted on
overlay          49G   22G   26G  46% /

Даже если вам не нужен графический процессор, переключение на этот тип среды выполнения предоставит вам дополнительные 310 ГБ дискового пространства.

person marsipan    schedule 28.04.2019
comment
Спасибо за обновление. Да, имеет смысл использовать графический процессор только для дополнительной памяти. - person Ferhat; 19.09.2019
comment
Ресурсы не гарантированы. Сегодня, 2020-09-20, я попробовал экземпляр GPU и получил ~ 70 ГБ наложения, а аппаратный ускоритель не получил ~ 110 ГБ. Все это, чтобы сказать, это супер YMMV! - person nelsonjchen; 20.09.2020
comment
Сегодня получил 108гб 69гб 108гб. - person idontknow; 08.12.2020