Вопросы с тегом «tensor»

2
Объяснение ввода Keras: input_shape, unit, batch_size, dim и т. Д.
Для любого слоя Keras ( Layerкласс), может кто - то объяснить , как понять разницу между input_shape, units, dimи т.д.? Например, в документе сказано unitsуказать форму вывода слоя. На изображении нейронной сети ниже hidden layer1имеется 4 единицы. Относится ли это непосредственно к unitsатрибуту Layerобъекта? Или unitsв Керасе форма каждого веса …

21
Как напечатать значение объекта Tensor в TensorFlow?
Я использовал вводный пример умножения матриц в TensorFlow. matrix1 = tf.constant([[3., 3.]]) matrix2 = tf.constant([[2.],[2.]]) product = tf.matmul(matrix1, matrix2) Когда я распечатываю продукт, он отображается как Tensorобъект: <tensorflow.python.framework.ops.Tensor object at 0x10470fcd0> Но откуда мне знать стоимость product? Следующее не помогает: print product Tensor("MatMul:0", shape=TensorShape([Dimension(1), Dimension(1)]), dtype=float32) Я знаю, что графики …

8
Как работает метод «просмотра» в PyTorch?
Я запутался в методе view()в следующем фрагменте кода. class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2,2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16*5*5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(F.relu(self.conv1(x))) x = self.pool(F.relu(self.conv2(x))) x = …
208 python  memory  pytorch  torch  tensor 

5
Лучший способ сохранить обученную модель в PyTorch?
Я искал альтернативные способы сохранить обученную модель в PyTorch. Пока что я нашел две альтернативы. torch.save () для сохранения модели и torch.load () для загрузки модели. model.state_dict () для сохранения обученной модели и model.load_state_dict () для загрузки сохраненной модели. Я сталкивался с этим обсуждением, где подход 2 рекомендуется по подходу …

5
почему мы «упаковываем» последовательности в pytorch?
Я пытался воспроизвести, как использовать упаковку для входных данных последовательности переменной длины для rnn, но я думаю, что сначала мне нужно понять, почему нам нужно «упаковать» последовательность. Я понимаю, почему нам нужно их «прокладывать», но почему это pack_padded_sequenceнеобходимо? Приветствуются любые объяснения высокого уровня!
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.