optimizer_1700e.yml 281 B

123456789101112131415161718
  1. epoch: 1700
  2. LearningRate:
  3. base_lr: 0.4
  4. schedulers:
  5. - !CosineDecay
  6. max_epochs: 1700
  7. - !LinearWarmup
  8. start_factor: 0.3333333333333333
  9. steps: 2000
  10. OptimizerBuilder:
  11. optimizer:
  12. momentum: 0.9
  13. type: Momentum
  14. regularizer:
  15. factor: 0.0005
  16. type: L2