• 设为首页
  • 点击收藏
  • 手机版
    手机扫一扫访问
    迪恩网络手机版
  • 关注官方公众号
    微信扫一扫关注
    公众号

【读书1】【2017】MATLAB与深度学习——批处理(1)

原作者: [db:作者] 来自: [db:来源] 收藏 邀请

批处理(Batch)

在批处理方法中,针对训练数据的所有误差计算每个权重更新,并且使用权重更新的平均值来调整权重。

In the batch method, each weight update iscalculated for all errors of the training data, and the average of the weightupdates is used for adjusting the weights.

该方法使用所有的训练数据,只执行一次更新操作。

This method uses all of the training dataand updates only once.

图2-16解释了批处理方法的权值计算和训练过程。

Figure 2-16 explains the weight updatecalculation and training process of the batch method.

图2-16 批处理方法的权值更新计算与训练过程The batch method’sweight update calculation and training process

批处理方法计算权值更新如下:

The batch method calculates the weightupdate as:

由于平均加权更新的计算,批处理方法需要消耗大量的时间进行训练。

Because of the averaged weight updatecalculation, the batch method consumes a significant amount of time fortraining.

小批量处理(Mini Batch)

小批量处理方法是SGD与批量处理二者的结合。

The mini batch method is a blend of the SGDand batch methods.

它选择出训练数据中的一部分用于批量处理训练。

It selects a part of the training datasetand uses them for training in the batch method.

因此,小批量处理方法计算出被选择训练数据的权值更新,并用平均权值更新训练神经网络。

Therefore, it calculates the weight updatesof the selected data and trains the neural network with the averaged weightupdate.

例如,从100个训练数据中挑选出20个随机的数据,小批量处理方法将被应用于这20个数据的处理。

For example, if 20 arbitrary data pointsare selected out of 100 training data points, the batch method is applied tothe 20 data points.

在这个例子中,总共进行5次加权调整才能完成所有数据的训练过程(5 = 100/20)。

In this case, a total of five weightadjustments are performed to complete the training process for all the datapoints (5 = 100/20).

图2-17解释了小批量处理方法如何选择训练数据,并计算权值更新。

Figure 2-17 shows how the mini batch schemeselects training data and calculates the weight update.

图2-17 小批量处理方法选择训练数据并计算权值更新的示意图How the minibatch scheme selects training data and calculates the weight update

当选择合适的处理数据规模时,小批量处理方法会获得SGD的收敛速度和批处理的稳定性。

The mini batch method, when it selects anappropriate number of data points, obtains the benefits from both methods:speed from the SGD and stability from the batch.

因此,在深度学习处理海量数据时,小批量处理方法经常被实际应用。

For this reason, it is often utilized inDeep Learning, which manipulates a significant amount of data.

现在,让我们根据“时代”的概念进一步深入地研究一下SGD、批处理和小批量处理算法。

Now, let’s delve a bit into the SGD, batch,and mini batch in terms of the epoch.

——本文译自Phil Kim所著的《Matlab Deep Learning》

更多精彩文章请关注微信号:


鲜花

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

全部评论

专题导读
上一篇:
Delphi十进制和十六进制互转发布时间:2022-07-18
下一篇:
CEF3中js调用delphi内部方法发布时间:2022-07-18
热门推荐
阅读排行榜

扫描微信二维码

查看手机版网站

随时了解更新最新资讯

139-2527-9053

在线客服(服务时间 9:00~18:00)

在线QQ客服
地址:深圳市南山区西丽大学城创智工业园
电邮:jeky_zhao#qq.com
移动电话:139-2527-9053

Powered by 互联科技 X3.4© 2001-2213 极客世界.|Sitemap