首先参考这篇文章:
原创|使用caffe训练时Loss变为nan的原因:
- 梯度爆炸
- 不当的损失函数
- 不当的输入
- 池化层中步长比核的尺寸大
检查自己的train.py:
- 检查代码(正确)
- 检查输入(自己之前调试的时候修改了图片预处理的一个函数get_random_data)将random=False改成random=True后就可以了
使用yolo训练时Loss变为nan[解决思路]
阅读 116
2023-01-25
首先参考这篇文章:
原创|使用caffe训练时Loss变为nan的原因:
检查自己的train.py:
相关推荐
精彩评论(0)