问题描述
昇腾设备训练似乎和CPU训练有所差异,使用mindspore在昇腾训练时,对于分类任务,不支持mindspore.int64,但是CPU上没有这个问题。而且在使用全零初始化权重的情况下,二者收敛速度差异较大,在昇腾上收敛速度远快于CPU,为什么会有这种情况?
还有就是推理时mindspore-lite默认使用float32还是float16?
问题解答
1.对于分类任务,不支持mindspore.int64
→ 这个应该是某个算子在昇腾下不支持int64,但是cpu下支持int64
2.速度快
→ npu的作用不就是加速运算.肯定要比cpu快.架构决定的.
3.mindspore lite推理的类型
这个不是由模型决定的吗?模型如果定了输入和内部算子的类型,整个流程就是定了.