درود دوستان. اخیرا ویژگی استفاده از پردازنده های تی پی یو یا همون واحد پردازشی تنسر(تنسور) به سیستم گوگل کولب اضافه شده. افرادی که یادگیری عمیق کار کردن میدونن که ماتریس هایی که به صورت ورودی و خروجی لایه های شبکه عصبی مصنوعی عمیق وجود دارن رو بهشون میگن تنسر. حالا این سخت افزارهای پردازشی به ما قدرت پردازش چند برابر حتی سریعتر از جی پی یو و چندها برابر سریعتر از سی پی یو رو میده. اما برای استفاده از اون لازمه که یه سری کدها رو اجرا کنید تا گوگل کولب بتونه ازش استفاده کنه. برای مثال بنده یه تکه کد کراس Karas رو براتون میذارم در بخش پایانی پست تا متوجه بشید چطوری این عمل صورت میگیره:


Hi. Recently Google added TPU support to Google Colab (Awesome) so we can use it to run our programs faster. but to use it, we need a piece of code and here is an example of how to use it in Keras:




import keras
from keras.models import Mode
from keras.layers import Dense
from keras.layers import Input

##########################################
import tensorflow as tf
import os

# This address identifies the TPU we'll use when configuring TensorFlow.
TPU_WORKER = 'grpc://' + os.environ['COLAB_TPU_ADDR']
##########################################

a = Input(input_shape)
b=Dense(num_of_classes, activation='softmax')(a)

model = Model(inputs=a, outputs=b)

model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

##########################################
tpu_model = tf.contrib.tpu.keras_to_tpu_model(
    model,
    strategy=tf.contrib.tpu.TPUDistributionStrategy(
        tf.contrib.cluster_resolver.TPUClusterResolver(TPU_WORKER)))
##########################################

tpu_model.fit(xtr, ytr, epochs=ep, batch_size=bs, validation_data=(xte, yte))