В этой главе мы обсудим некоторые наиболее часто используемые термины в PyTorch.
PyTorch NumPy
Тензор PyTorch идентичен массиву NumPy. Тензор — это n-мерный массив, и по отношению к PyTorch он предоставляет множество функций для работы с этими тензорами.
Тензоры PyTorch обычно используют графические процессоры для ускорения своих числовых вычислений. Эти тензоры, созданные в PyTorch, можно использовать для подгонки двухслойной сети к случайным данным. Пользователь может вручную реализовать прямой и обратный проходы по сети.
Переменные и автоград
При использовании autograd прямая передача вашей сети будет определять вычислительный граф — узлы в графе будут Tensors, а ребра будут функциями, которые производят выходные Tensors из входных Tensors.
Тензор PyTorch может быть создан как переменные объекты, где переменная представляет узел в вычислительном графе.
Динамические Графики
Статические графики хороши тем, что пользователь может оптимизировать график заранее. Если программисты повторно используют один и тот же график снова и снова, то эта потенциально дорогостоящая предварительная оптимизация может быть сохранена, так как один и тот же график повторяется снова и снова.
Основное различие между ними заключается в том, что вычислительные графы Tensor Flow являются статическими, а PyTorch использует динамические вычислительные графы.
Оптим Пакет
Пакет optim в PyTorch абстрагирует идею алгоритма оптимизации, который реализован многими способами, и предоставляет иллюстрации часто используемых алгоритмов оптимизации. Это можно вызвать в операторе импорта.
многопроцессорная обработка
Многопроцессорная обработка поддерживает одни и те же операции, поэтому все тензоры работают на нескольких процессорах. Их очередь будет перемещена в общую память и отправит дескриптор другому процессу.