Navigation

    Gpushare.com

    • Register
    • Login
    • Search
    • Popular
    • Categories
    • Recent
    • Tags

    epoch、batchsize是什么?

    语音识别与语义处理领域
    1
    1
    47
    Loading More Posts
    • Oldest to Newest
    • Newest to Oldest
    • Most Votes
    Reply
    • Reply as topic
    Log in to reply
    This topic has been deleted. Only users with topic management privileges can see it.
    • 175****1239
      175****1239 last edited by

      epoch、batchsize

      batchsize

      batchsize理解为批次的大小,这个批次指的是一次有多少数据进入模型,本文以NLP任务为例,假设每一次送给模型10条句子让模型学习其中的特征,那么batchsize就是10,如果送100条数据,那么batchsize就是100,很显然,如果batchsize越大的话,模型在学习时就可能会抓取更多相似的特征,进行反向传播调节参数,有利于梯度下降过程。

      epoch

      epoch就是把所有数据训练一遍,假设训练样本有1000条数据,batchsize为100,那么训练一个轮次(epoch)需要分为10次数据迭代训练。在训练时为了使模型能够提取更多的特征,一般会设置多个epoch,分为多轮去训练数据。

      1 Reply Last reply Reply Quote 0
      • First post
        Last post