• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1mindspore.nn.Conv1d
2======================
3
4.. py:class:: mindspore.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, pad_mode='same', padding=0, dilation=1, group=1, has_bias=False, weight_init=None, bias_init=None, dtype=mstype.float32)
5
6    一维卷积层。
7
8    对输入Tensor计算一维卷积。通常输入的shape为 :math:`(N, C_{in}, L_{in})` ,其中 :math:`N` 为batch size,:math:`C` 为通道数,:math:`L` 为输入序列的长度。
9
10    根据以下公式计算输出:
11
12    .. math::
13
14        \text{out}(N_i, C_{\text{out}_j}) = \text{bias}(C_{\text{out}_j}) +
15        \sum_{k = 0}^{C_{in} - 1} \text{ccor}({\text{weight}(C_{\text{out}_j}, k), \text{X}(N_i, k)})
16
17    其中, :math:`bias` 为输出偏置,:math:`ccor` 为 `cross-correlation <https://en.wikipedia.org/wiki/Cross-correlation>`_ 操作,
18    :math:`weight` 为卷积核的值, :math:`X` 为输入的特征图。
19
20    - :math:`i` 对应batch数,其范围为 :math:`[0, N-1]` ,其中 :math:`N` 为输入batch。
21
22    - :math:`j` 对应输出通道,其范围为 :math:`[0, C_{out}-1]` ,其中 :math:`C_{out}` 为输出通道数,该值也等于卷积核的个数。
23
24    - :math:`k` 对应输入通道数,其范围为 :math:`[0, C_{in}-1]` ,其中 :math:`C_{in}` 为输入通道数,该值也等于卷积核的通道数。
25
26    因此,上面的公式中, :math:`{bias}(C_{\text{out}_j})` 为第 :math:`j` 个输出通道的偏置, :math:`{weight}(C_{\text{out}_j}, k)` 表示第 :math:`j` 个
27    卷积核在第 :math:`k` 个输入通道的卷积核切片, :math:`{X}(N_i, k)` 为特征图第 :math:`i` 个batch第 :math:`k` 个输入通道的切片。
28    卷积核shape为 :math:`(\text{kernel_size})` ,其中 :math:`\text{kernel_size}` 是卷积核的宽度。若考虑到输入输出通道以及group,则完整卷积核的shape为
29    :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size})` ,
30    其中 `group` 是分组卷积时在通道上分割输入 `x` 的组数。
31
32    想更深入了解卷积层,请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_ 和 `ConvNets <http://cs231n.github.io/convolutional-networks/>`_ 。
33
34    .. note::
35        在Ascend平台上,目前只支持深度卷积场景下的分组卷积运算。也就是说,当 `group>1` 的场景下,必须要满足 `in\_channels` = `out\_channels` = `group` 的约束条件。
36
37    参数:
38        - **in_channels** (int) - Conv1d层输入Tensor的空间维度。
39        - **out_channels** (int) - Conv1d层输出Tensor的空间维度。
40        - **kernel_size** (int) - 指定一维卷积核的宽度。
41        - **stride** (int,可选) - 一维卷积核的移动步长,默认值: ``1`` 。
42        - **pad_mode** (str,可选) - 指定填充模式,填充值为0。可选值为 ``"same"`` , ``"valid"`` 或 ``"pad"`` 。默认值: ``"same"`` 。
43
44          - ``"same"``:在输入的两端填充,使得当 `stride` 为 ``1`` 时,输入和输出的shape一致。待填充的量由算子内部计算,若为偶数,则均匀地填充在四周,若为奇数,多余的填充量将补充在右端。如果设置了此模式, `padding` 必须为0。
45          - ``"valid"``:不对输入进行填充,返回输出可能的最大长度,不能构成一个完整stride的额外的像素将被丢弃。如果设置了此模式, `padding` 必须为0。
46          - ``"pad"``:对输入填充指定的量。在这种模式下,填充的量由 `padding` 参数指定。如果设置此模式, `padding` 必须大于或等于0。
47
48        - **padding** (Union(int, tuple[int], list[int]),可选) - 当 `pad_mode` 为 ``"pad"`` 时,指定在输入 `input` 的宽度方向上填充的数量。数据类型为int或包含1个int组成的tuple。表示宽度方向的 `padding` 数量(左右两边均为该值)。值必须大于等于0,默认值: ``0`` 。
49        - **dilation** (Union(int, tuple[int]),可选) - 卷积核膨胀尺寸。可以为单个int,或者由一个int组成的tuple。
50          假设 :math:`dilation=(d0,)`, 则卷积核在宽度方向间隔 :math:`d0-1` 个元素进行采样。取值范围为[1, L]。默认值: ``1`` 。
51        - **group** (int,可选) - 将过滤器拆分为组, `in_channels` 和 `out_channels` 必须可被 `group` 整除。默认值:``1`` 。
52        - **has_bias** (bool,可选) - Conv1d层是否添加偏置参数。默认值: ``False`` 。
53        - **weight_init** (Union[Tensor, str, Initializer, numbers.Number],可选) - 权重参数的初始化方法。它可以是Tensor,str,Initializer或numbers.Number。当使用str时,可选 ``"TruncatedNormal"`` , ``"Normal"`` , ``"Uniform"`` , ``"HeUniform"`` 和 ``"XavierUniform"`` 分布以及常量 ``"One"`` 和 ``"Zero"`` 分布的值,可接受别名 ``"xavier_uniform"`` , ``"he_uniform"`` , ``"ones"`` 和 ``"zeros"`` 。上述字符串大小写均可。更多细节请参考 `Initializer <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore.common.initializer.html>`_, 的值。默认值: ``None`` ,权重使用 ``"HeUniform"`` 初始化。
54        - **bias_init** (Union[Tensor, str, Initializer, numbers.Number],可选) - 偏置参数的初始化方法。可以使用的初始化方法与 `weight_init` 相同。更多细节请参考 `Initializer <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore.common.initializer.html>`_, 的值。默认值: ``None`` ,偏差使用 ``"Uniform"`` 初始化。
55        - **dtype** (:class:`mindspore.dtype`) - Parameters的dtype。默认值: ``mstype.float32`` 。
56
57    输入:
58        - **x** (Tensor) - shape为 :math:`(N, C_{in}, L_{in})` 的Tensor。
59
60    输出:
61        Tensor,shape为 :math:`(N, C_{out}, L_{out})` 。
62
63        pad_mode为 ``"same"`` 时:
64
65        .. math::
66            L_{out} = \left \lceil{\frac{L_{in}}{\text{stride}}} \right \rceil
67
68        pad_mode为 ``"valid"`` 时:
69
70        .. math::
71            L_{out} = \left \lceil{\frac{L_{in} - \text{dilation} \times (\text{kernel_size} - 1) }
72            {\text{stride}}} \right \rceil
73
74        pad_mode为 ``"pad"`` 时:
75
76        .. math::
77            L_{out} = \left \lfloor{\frac{L_{in} + 2 \times padding - (\text{kernel_size} - 1) \times
78            \text{dilation} - 1 }{\text{stride}} + 1} \right \rfloor
79
80    异常:
81        - **TypeError** - `in_channels` 、 `out_channels` 、 `kernel_size` 、 `stride` 、 `padding` 或 `dilation` 不是int。
82        - **ValueError** - `in_channels` 、 `out_channels` 、 `kernel_size` 、 `stride` 或 `dilation` 小于1。
83        - **ValueError** - `padding` 小于0。
84        - **ValueError** - `pad_mode` 不是 ``"same"`` , ``"valid"`` 或 ``"pad"`` 。
85