前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Tensorflow随笔(三)

Tensorflow随笔(三)

原创
作者头像
XianxinMao
修改2021-08-11 11:03:34
2210
修改2021-08-11 11:03:34
举报
文章被收录于专栏:深度学习框架深度学习框架

上图我们可以发现,对于simple_cnn来说,数据增强有很明显的作用,可以显著提高val_acc,也就是模型的泛化性。

对于pre-trained model(此处用作feature extraction)来说,此处用的是mobilenetV2,因为模型是在imagenet大型数据集上做的预训练,已经见过很多图片数据了,同时模型能更新参数的部分只有top-classifier,所以此处的数据增强效果并不是特别显著,数据增强的作用主要是让模型能见到更多的数据多样性,以此减轻过拟合,增强泛化。

我们接着对模型进行了finetune训练,相比于freeze feature extraction部分来说,我们unfreeze了顶部几层卷积,使模型更加适合目前的任务,相比来说提高了几个百分点。

上图我们可以看到,模型在训练几个epoch之后,val_acc已经达到饱和,此时我们接着训练,会发现val_loss在上升,此处是因为模型置信度下降引起的。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档