# 定义模型
dropout1, dropout2 = 0.2, 0.4
net = nn.Sequential(nn.Flatten(),
nn.Linear(num_inputs, num_hiddens1),
nn.ReLU(),
# 在第一个全连接层之后添加一个暂退层
nn.Dropout(dropout1),
nn.Linear(num_hiddens1, num_hiddens2),
nn.ReLU(),
# 在第二个全连接层之后添加一个暂退层
nn.Dropout(dropout2),
nn.Linear(num_hiddens2, num_outputs))
def init_weights(m):
if type(m) == nn.Linear:
nn.init.normal_(m.weight, std=0.01)
net.apply(init_weights)