“情感分类模型”进一步降低loss要如何调整参数?

来源:11-10 文本情感分类-test脚本定义

2227181

2023-10-21

老师,用您提供的情感分类模型,尽管epoch设置为了100,但实际训练,几轮过后,loss值稳定在0.3到0.35之间,一直到100轮都不再收敛了。
我尝试的修改了层数,学习率和dropout值,发现基本没有效果。当然也发现了简化模型的可能,层数2层也能达到5层一样的效果而且略优,训练速度也更快了。8层反而恶化了。学习率改为0.01会恶化,0.0001相对0.001无改善。
因此我有两个问题:

  1. 如果要进一步降低loss,建议调节哪些参数?还是参数调节上潜力不大,关键还是要增加训练的语料?
  2. 交叉熵是衡量系统的混乱度。由于用argmax()筛选分类结果,很可能大小不同的两个交叉熵得到的分类结果是一样的。那么对于交叉熵loss,是否要追求loss值的绝对小,还是收敛到一定的范围就行了,还要合并考虑推理的实际准确率?

以上,谢谢老师。

写回答

1回答

会写代码的好厨师

2023-10-29

这个模型调参的空间不是很大,如果想要做的很好的话,应该考虑更好的文本编码的方法,可以考虑目前的语言大模型来提取特征,进行文本编码,在进行分类。

0
0

PyTorch入门到进阶 实战计算机视觉与自然语言处理项目

理论基础+技术讲解+实战开发,快速掌握PyTorch框架

1190 学习 · 298 问题

查看课程