pytorch中的上采样以及各种反操作,求逆操作详解

  

进口torch.nn。功能和F

  

进口火炬。神经网络是神经网络

  

<>强F。upsample(输入、大?没有scale_factor=None,模式=白罱?align_corners=None)

        " r " Upsamples要么给定的输入:attr:“大小”或给定的   :attr:“scale_factor”   该算法用于upsampling取决于:attr:“模式”。   目前时间、空间和体积upsampling支持,即。   预期的输入3 d、4 d或5 d的形状。   输入维度解读的形式:   “mini-batch x频道(可选的深度)x(高度可选)宽度的。   upsampling可用的模式是:“最近”,“线性”(3 d),   双线性(4 d),“三线的”(5 d)   参数:   输入(张量):输入张量   大小(int或元组(int)或元组(int, int)或元组(int, int, int)):   输出空间的大小。   scale_factor (int):乘法器的空间大小。必须是一个整数。   模式(字符串)算法用于upsampling:   “最近”|“线性”|“双线性”|“三线的”。默认值:“最近”   align_corners (bool,可选):如果这是真的,角落里输入的像素   张量和输出是一致的,因此保留值   这些像素。这>   ”“”   参数:   in_channels (int)——输入的频道形象   out_channels (int)数目的信道产生的卷积   kernel_size (int或元组)-卷积核的大小   步(int或元组,可选)——卷积的步伐。默认值:1   填充(int或元组,可选)——kernel_size 1 -填充补零双方将被添加到每个维度的输入。默认值:0   output_padding (int或元组,可选)——附加尺寸添加到alt=" pytorch中的上采样以及各种反操作,求逆操作详解">

  

  

调用:         def向前(自我、输入指标,output_size=None):   返回F。max_unpool2d(输入、指数、自我。kernel_size self.stride,   自我。填充,output_size)               " r "计算的部分逆:类:“MaxPool2d”。   类:“MaxPool2d”不完全可逆的,自非值丢失。   类:“MaxUnpool2d”以在作为输入的输出:类:“MaxPool2d”   包括指数最大的值和计算部分逆   所有非值设置为0。   . .注意::“MaxPool2d”可以映射几个输入大小相同的输出大小。   因此,反演过程可以得到模棱两可的。   为了适应这一点,您可以提供所需的输出大小   作为一个额外的参数“output_size”电话。   请参阅下面的输入和例子。   参数:   kernel_size (int或元组):马克斯池窗口的大小。   步(int或元组):马克斯池窗口的步伐。   它被设置为“kernel_size默认' '。   填充(int或元组):添加到输入填充   输入:   ——“输入”:输入张量转化   ——“指数”:由“MaxPool2d”给出的指标   ——“output_size”(可选):“火炬。大小的指定目标输出大小   形状:   ——输入::数学:' (N、C、H_ {}, W_ {})”   ——输出::数学:' (N、C、H_ {}, W_ {})”   计算公式:见下面   例如:见下面   ”“”   之前      

 pytorch中的上采样以及各种反操作,求逆操作详解

  

  

见上面的用法一致。

        def max_unpool2d(输入、指数kernel_size跨步=None,填充=0,   output_size=None):   " r "计算的部分逆:类:“MaxPool2d”。   看到:类:“~ torch.nn。MaxUnpool2d的细节。   ”“”   通过      

以上这篇pytorch中的上采样以及各种反操作,求逆操作详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

pytorch中的上采样以及各种反操作,求逆操作详解