在线时间:8:00-16:00
迪恩网络APP
随时随地掌握行业动态
扫描二维码
关注迪恩网络微信公众号
目录Ch4 - Neural Network and ClassificationBinary Classification二分类问题只需要一个输出层结点,因为我们只需指定一个阈值 threshold 就可以把结果分为两类。 当我们使用 Sigmoid **函数 + 交叉熵损失函数时,输出层误差有着十分简洁的形式。详细推导可以参考 为什么sigmoid**函数,使用交叉熵损失函数更好。 Multiclass Classification在多分类问题中,我们通常使输出层的结点数目与分类数目相一致。 一个有效的策略是使用 one-hot 编码,这时每一个输出层结点都被映射到类向量的其中一个元素。 Ch5 - Deep Learning在使用后向传播算法时,添加额外的隐藏层反而常常导致较差的表现,深度学习为我们提供了解决方案。实际上,深度学习并没有任何关键技术上的革新,它带来的是一系列细微的技术改良(technical improvements)的集合。 更深的网络反而表现更差的原因是网络没有得到很好地训练,后向传播算法在训练过程中存在着以下三个问题:Vanishing gradient, Over-fitting, Computational load. 解决梯度弥散/消失(Vanishing gradient )的一项代表性技术是使用 Rectified Linear Unit (ReLU) **函数。 最后,由于高性能硬件产品(GPU)的发展和其他一些算法(Batch normalization,批归一化)的发现,深度学习的计算负荷(computational load)也被减轻到了一个可观的水平。 |
2023-10-27
2022-08-15
2022-08-17
2022-09-23
2022-08-13
请发表评论