Логотип YeaHub

База вопросов

Собеседования

Тренажёр

База ресурсов

Обучение

Навыки

Войти

Выбери, каким будет IT завтра — вместе c нами!

YeaHub — это полностью открытый проект, призванный объединить и улучшить IT-сферу. Наш исходный код доступен для просмотра на GitHub. Дизайн проекта также открыт для ознакомления в Figma.

© 2026 YeaHub

Документы

Медиа

Назад

Как TensorFlow использует GPU и TPU для вычислений?

Этот вопрос проверяет понимание принципов ускорения вычислений с помощью GPU и TPU в TensorFlow.

Короткий ответ

TensorFlow использует:

- GPU (через CUDA) для ускоренных матричных операций.

- TPU (специальные чипы от Google) для высокопроизводительных ML-задач.

- Динамическое распределение вычислений между устройствами.

Длинный ответ

Использование GPU в TensorFlow:

import tensorflow as tf
print("Available GPUs:", tf.config.list_physical_devices('GPU'))

Запуск модели на GPU:

with tf.device('/GPU:0'):
    x = tf.random.normal((1000, 1000))
    y = tf.matmul(x, x)

Использование TPU:

resolver = tf.distribute.cluster_resolver.TPUClusterResolver()
tf.config.experimental_connect_to_cluster(resolver)
tf.tpu.experimental.initialize_tpu_system(resolver)


GPU ускоряют обучение за счет параллельных вычислений, а TPU обеспечивают еще большую скорость, особенно для больших моделей.

Уровень

  • Рейтинг:

    2

  • Сложность:

    6

Навыки

  • TensorFlow

Ключевые слова

#gpu

#tpu

#cuda

#acceleration

#parallel

Подпишись на Data Science в телеграм