※ 引述 《sustainer123 (温水佳树的兄长大人)》 之铭言:
:
: 从lose curve来说
:
: val持平 train持续下降
:
: 从指标来说 训练集是验证集两倍
:
: 这摆明overfitting吧
:
: 为啥多加一层卷积反而效果更好
:
: 我怕不是学了假的深度学习
:
最后没上升
但跟原本模型只差一点
而且recall变高 precision变低
通常训练下去 两个会平衡 然后f1 score上去
最重要的是训练集跟测试集的少数类logit没差多少
这点就很意外
通常overfitting越严重
少数类的logit就会往多数类偏移 然后跨过决策边界
无法理解
明天增加epoch试试