https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/website-images/r2.3.q1/resource/_static/logo_notebook.svg https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/website-images/r2.3.q1/resource/_static/logo_download_code.svg 查看源文件

模型模块自定义

基础用法示例

神经网络模型由各种层(Layer)构成,MindSpore提供构造神经网络层的基础单元Cell,基于Cell进行神经网络封装。下面使用Cell构造经典模型AlexNet。

alextnet

如图所示,AlexNet由5个卷积层与3个全连接层串联构成,我们使用mindspore.nn提供的神经网络层接口进行构造。

from mindspore import nn

下面的代码展示了如何使用nn.Cell快速构造AlexNet。其中:

  • 顶层神经网络继承nn.Cell,为嵌套结构;

  • 每个神经网络层都是nn.Cell的子类;

  • nn.SequentialCell可以在定义顺序结构的模型时进行简化。

class AlexNet(nn.Cell):
    def __init__(self, num_classes=1000, dropout=0.5):
        super().__init__()
        self.features = nn.SequentialCell(
            nn.Conv2d(3, 96, kernel_size=11, stride=4, pad_mode='pad', padding=2),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=3, stride=2),
            nn.Conv2d(96, 256, kernel_size=5, pad_mode='pad', padding=2),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=3, stride=2),
            nn.Conv2d(256, 384, kernel_size=3, pad_mode='pad', padding=1),
            nn.ReLU(),
            nn.Conv2d(384, 384, kernel_size=3, pad_mode='pad', padding=1),
            nn.ReLU(),
            nn.Conv2d(384, 256, kernel_size=3, pad_mode='pad', padding=1),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=3, stride=2),
        )
        self.classifier = nn.SequentialCell(
            nn.Dropout(p=dropout),
            nn.Dense(256 * 6 * 6, 4096),
            nn.ReLU(),
            nn.Dropout(p=dropout),
            nn.Dense(4096, 4096),
            nn.ReLU(),
            nn.Dense(4096, num_classes),
        )

    def construct(self, x):
        x = self.features(x)
        x = x.view(x.shape[0], 256 * 6 * 6)
        x = self.classifier(x)
        return x

在定义模型的过程中,construct方法内可使用Python语法进行模型结构的任意构造,如条件、循环等控制流语句。但在进行即时编译(Just In Time)时,需通过编译器进行语法解析,此时存在语法限制,具体参考:静态图语法支持

完成模型构造后,我们构造一个单样本数据,将其送入实例化的AlexNet中,即可求得正向结果。

import numpy as np
import mindspore
from mindspore import Tensor

x = Tensor(np.random.randn(1, 3, 224, 224), mindspore.float32)
network = AlexNet()
logits = network(x)
print(logits.shape)
(1, 1000)

更多使用场景

除基础的网络结构构造外,我们分别对神经网络层(Layer)、损失函数(Loss)和优化器(Optimizer),神经网络层需要的参数(Parameter)及其初始化方法(Initializer)的构造等场景进行详细介绍。