epoch、batchsize是什么?
-
epoch、batchsize
batchsize
batchsize理解为批次的大小,这个批次指的是一次有多少数据进入模型,本文以NLP任务为例,假设每一次送给模型10条句子让模型学习其中的特征,那么batchsize就是10,如果送100条数据,那么batchsize就是100,很显然,如果batchsize越大的话,模型在学习时就可能会抓取更多相似的特征,进行反向传播调节参数,有利于梯度下降过程。
epoch
epoch就是把所有数据训练一遍,假设训练样本有1000条数据,batchsize为100,那么训练一个轮次(epoch)需要分为10次数据迭代训练。在训练时为了使模型能够提取更多的特征,一般会设置多个epoch,分为多轮去训练数据。