有的时候我们为了使用比较深的鉮经网络训练cifar-10面板数据模型集
图像放大主要方法是差值。常用方法包括:线性插值双线性插值,双三次插值
本文就几种常用的插值方法讨论他们对神经网络训练的结果的影响。以图像检索为例
1、单纯比较几种方法性能优劣
没考虑其他相邻潒素点的影响,因而重新采样后灰度值有明显的不连续性图像质量损失较大,马赛克和锯齿现象 |
考虑临近4个点不会出现像素值不连续嘚的情况,由于双线性插值具有低通滤波器的性质使高频分量受损,所以可能会使图像轮廓在一定程度上变得模糊 |
考虑周围16个点插值放大后损失最小,计算量大 |
2、用插值后的面板数据模型训练
将原图【32*32】放大了49倍的结果进行训练 resize之后【224*224】。调优模型VGG_F model在cifar-10上取得的mAP。见下表注:表中的loss项绝对值没有意义,主要是看相对值
3、在loss中加入softmax损失,如何影响结果
通过对比试验,可以看到差值算法选取不同,训练的结果也随之受到一定的影响:
从loss中加入softmax对结果影响来看softmax能有效的加快网络的收敛,同时能一定程度的提高网络精度 |
过两天贴出测试代码以及流程敬请关注