感谢作者的精彩的工作
在复现您的代码的时候,注意到一个parser.add_argument('--batchnum', type=int, default=4000, help='the number of batch')这个参数。想跟您请教一下。
假设数据集 3200 张,batch size 16。
另一个模型的训练:200 epoch,每个 epoch 200 step,总共:40000 step
而 OSCNet:200 epoch,由于batchnum的存在,每个 epoch 4000 step,总共:800000 step,那就是 20 倍训练量差距。
想跟您请教一下我的计算是否有误,以及在batchsize一样的情况下,batchnum的存在是否会涉及到对比不公平的问题
期待您的回复,
Sincerely
感谢作者的精彩的工作
在复现您的代码的时候,注意到一个parser.add_argument('--batchnum', type=int, default=4000, help='the number of batch')这个参数。想跟您请教一下。
假设数据集 3200 张,batch size 16。
另一个模型的训练:200 epoch,每个 epoch 200 step,总共:40000 step
而 OSCNet:200 epoch,由于batchnum的存在,每个 epoch 4000 step,总共:800000 step,那就是 20 倍训练量差距。
想跟您请教一下我的计算是否有误,以及在batchsize一样的情况下,batchnum的存在是否会涉及到对比不公平的问题
期待您的回复,
Sincerely