对大家有帮助的问答会被标记为“推荐”,看完课程过来浏览一下别人提的问题,会帮你学得更全面
老师这些参数怎么都是谁的啊,我的理解是第一个tensor里是20个隐藏层神经元对应的两个输入权重[w1,w2],第二个tensor是三个输出层神经元对应的二十个隐藏层的输入权重,那第三个tensor就是偏置吧,可为什么会有3个呢
我想把训练过程中的图片保存下来应该怎么改啊,这个只保存了最后结束的一张图
我真无语了,上个课怎么还有呼噜声呢,真影响心情!!!
反卷积的时候 为什么 卷积核不从左向右走到头呢 为什么直接换行了 所以反卷积的原则是用最短路径覆盖反卷积的格子吗 这个卷积核为什么选3*3
_,pred = torch.max(outputs.data,dim=1) correct = pred.eq(labels.data).cpu().sum() print('step',i,'loss is',loss.item(), 'mini-batch correct is:',100*correct/batch_size)
老师,这里的预测取最大是什么意思啊?
然后下面预测相等就加起来,最后返回的正确率是本轮本批数据有多少预测对了吗?
类中的前向传播方法forward只能叫forward吗?
所有的神经网络在训练时的x和y都一定要用Tensor数据类型吗?
RuntimeError: stack expects each tensor to be equal size, but got [3, 96, 96] at entry 0 and [3, 288, 432] at entry 4
资料给的数据集是不是有错误啊,为什么会有288*432的图片啊?
老师这里的数据集是自己先下载好的嘛?还有就是data文件夹也是自己建的是吧?为啥我跟老师的代码一样图片不能加载出来
net = Net(input_features=2,num_hidden=20,outputs=3)
老师,为什么这里不能输入特征是3输出是2呢