Pytorch之相邻的用法

  

<强>连续的

  

张量变量调用连续()函数会使张量变量在内存中的存储变得连续。

  

连续():视图只能用在相邻的变量上。如果在观点之前用了转置,交换等,需要用连续的()来返回一个连续的副本。

  

<强>一种可能的解释是:

  

有些张量并不是占用一整块内存,而是由不同的数据块组成,而张量的观点()操作依赖于内存是整块的,这时只需要执行连续()这个函数,把张量变成在内存中连续分布的形式。

  

<强> is_contiguous

  

<>强判断是否连续用torch.Tensor.is_contiguous()函数。

        进口火炬   x=火炬。(10,10)   x.is_contiguous() #真正的   x。置(0,1).is_contiguous() #假   x。置(0,1).contiguous () .is_contiguous() #真正的      

在pytorch的最新版本0.4版本中,增加了torch.reshape(),这与numpy。重塑的功能类似。它大致相当于tensor.contiguous () .view ()

  

以上这篇Pytorch之相邻的用法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

Pytorch之相邻的用法