caffe solver参数详解
train_net: "/cache/data_url/train.prototxt" # 训练模型文件的位置
test_net: "/cache/data_url/test.prototxt" # 测试模型文件的位置
test_iter: 1 # test_iter = 向上取整(测试集样本数 / batch_size)
test_interval: 10 # 表示每10次训练跑一次测试,建议与display设置的值保持一致
base_lr: 0.0010000000475 # 基础学习率
display: 10 # 每迭代多少次显示一次结果
max_iter: 20 # 最大迭代次数
lr_policy: "multistep" # lr更新的策略
fixed:固定学习率basr_lr不变
inv:basr_lr=base_lr * (1 + gamma * iter) ^ (- power)
step:basr_lr=base_lr * gamma ^ (floor(iter / step))
exp:basr_lr=base_lr * gamma ^ iter
multistep:与step类似,但step取决于stepvalue。
poly:basr_lr=base_lr (1 - iter/max_iter) ^ (power)
sigmoid:basr_lr=base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
gamma: 0.10000000149 # 学习率变化指数
momentum: 0.899999976158 # 上一次梯度更新的权重
weight_decay: 0.000500000023749 # 权重衰减
snapshot: 20 # 每隔多少步保存一次模型
snapshot_prefix: "/cache/train_url/" # 模型保存目录,如果在华为云modelArts平台,建议固定为该目录
solver_mode: GPU # 是否使用GPU
device_id: 0 # GPU序列号
debug_info: false # 是否显示debug信息
snapshot_after_train: true # 是否在训练结束后保存一个snapshot文件
test_initialization: false # 是否输出loss的初始值
average_loss: 10 # 对之前average_loss个loss取平均值
stepvalue: 80000 # lr_policy为multistep时的stepsize
stepvalue: 100000
stepvalue: 120000
iter_size: 1 # 每处理iter_size*batch_size张图片后进行一次梯度计算
type: "SGD" # 梯度下降算法的类型
eval_type: "detection" # 评价类型
ap_version: "11point" # 计算平均准确率的方法。有11point、MaxIntegral、Integral三种
- 点赞
- 收藏
- 关注作者
评论(0)