Как узнать больше об устройстве Cloud TPU, на котором вы запускаете свои программы?

Независимо от того, используем ли мы Google Colab или обращаемся к облачным TPU напрямую, приведенная ниже программа дает только ограниченную информацию о базовых TPU:

import os
import tensorflow as tf

tpu_address = 'grpc://' + os.environ['COLAB_TPU_ADDR']
print ('TPU address is', tpu_address)

def printTPUDevices():
   with tf.Session(tpu_address) as session:
      devices = session.list_devices()

      print ('TPU devices:')
      return devices

printTPUDevices()

Есть ли какая-либо документация программно или через команды bash для отображения дополнительной информации, см. этот смысл, например. https://gist.github.com/neomatrix369/256913dcf77cdbb5855dd2d7f5d81b84.


person Mani Sarkar    schedule 13.11.2018    source источник
comment
Спасибо Раджив за изменение тега на более подходящий тег   -  person Mani Sarkar    schedule 17.11.2018


Ответы (1)


Архитектура системы Cloud TPU немного отличается от архитектуры GPU, поэтому этот уровень информации недоступен.

Поскольку клиент общается с удаленным сервером TensorFlow и использует XLA, клиентскому коду не нужно изменяться в зависимости от доступных функций TPU, удаленный сервер будет компилировать машинные инструкции на основе возможностей TPU.

Однако Cloud TPU Profiler дает более низкоуровневое представление о TPU. для оптимизации производительности. Вы можете увидеть представление на уровне трассировки, какие операции используют память и время вычислений.

person michaelb    schedule 19.11.2018
comment
Спасибо @michaelb, я наткнулся на профиль Cloud TPU, хотя кажется, что для его использования необходима некоторая настройка. Есть ли более простой/короткий способ использовать его через Google Colab. - person Mani Sarkar; 21.11.2018
comment
Я работаю над этим аспектом ТПУ - в моем списке для чтения, спасибо за советы - person Mani Sarkar; 14.12.2018