在线时间:8:00-16:00
迪恩网络APP
随时随地掌握行业动态
扫描二维码
关注迪恩网络微信公众号
本教程面向刚学习机器学习和TensorFlow的读者。如果您已经知道MNIST是什么,以及softmax(多项式逻辑)回归是什么,那么您可以跳到节奏更快的教程。在开始任何教程之前务必安装TensorFlow。 当学习如何编程时,首先要做的就是打印“Hello World”。编程起步有Hello World,而机器学习起步就是MNIST。 MNIST是一个简单的计算机视觉数据集。它由这样的手写数字的图像组成: 它还包括每个图像的标签,告诉我们它是哪个数字。例如,上述图像的标签是5,0,4和1。 在本教程中,我们将训练一个模型来查看图像并预测它们是什么数字。我们的目标不是训练一个能够达到state-of-the-art表现的精心制作的模型 – 尽管我们稍后会给您提供代码! – 而是倾向于让您学会TensorFlow的入门级用法。因此,我们将从一个非常简单的模型开始,称为Softmax回归。 本教程的实际代码非常短,所有有趣的东西都只发生在三行中。然而,了解其背后的理念非常重要:TensorFlow的工作原理和核心机器学习概念。正因为如此,我们要非常小心的走查代码。 关于本教程这个教程是对这个文件一行一行的代码解释。 您可以通过几种不同的方式使用本教程,其中包括:
我们将在本教程中完成的任务:
MNIST数据MNIST数据托管在Yann LeCun的网站。如果您正在复制和粘贴本教程中的代码,请从这里开始这两行代码,它们将自动下载并读取数据:
MNIST数据分为三部分:55,000个训练数据的数据点( 如前所述,每个MNIST数据点有两部分:一个手写数字的图像和一个相应的标签。我们将调用图像”x”和标签”y”。训练集和测试集都包含图像及其相应的标签;例如训练图像是 每个图像是28像素×28像素。我们可以把它解释为一大堆数字: 我们可以把这个数组变成一个28×28 = 784的数字。只要我们在图像之间保持一致,那么我们如何展开阵列并不重要。从这个角度来看,MNIST图像只是784维向量空间中的一束点,结构非常丰富(警告:计算密集的可视化)。 展平数据会丢弃有关图像二维结构的信息。这可能是有问题的,但是,最好的计算机视觉方法就是可以利用这个结构的,我们将在后面的教程中介绍。在这里只使用的简单方法,softmax回归(下面定义)。 结果就是这样: MNIST中的每个图像都有相应的标签,0到9之间的数字代表图像中绘制的数字。 为了本教程的目的,我们将要求我们的标签为“one-hot vectors”。 one-hot向量是一个在大多数维度上为0,在一个维度上为1的向量。在这种情况下,第n个数字将被表示为在第n维中为1的向量。例如,3将是[0,0,0,1,0,0,0,0,0,0]。所以, Softmax回归我们知道MNIST中的每个图像都是一个0到9之间的手写数字。所以一个给定的图像可能只有十个可能的东西。我们希望能够看到一个图像,并给出它是每个数字的概率。例如,我们的模型可能会查看一张9的图片,并且有80%确定这是一张9的图片,但是给出一个5%的概率是因为它是一个8(因为顶部循环),并且对所有其他的概率有一点概率,这不是100%确定。 这是说明softmax回归是一个自然,简单模型的经典案例。如果你想把一个对象的概率分配给几个不同的东西之一,softmax就是要做的事情,因为softmax给了我们一个0到1之间的数值列表,加起来就是1。后续,当我们训练更复杂的模型,最后一步仍然会是一个softmax层。 softmax回归有两个步骤:首先我们将输入的证据加在某些类别中,然后将证据转换成概率。 为了收集给定图像在特定类别中的证据,我们进行像素强度的加权总和。如果具有高强度的像素是针对在该类别中的图像的证据,则权重是负的;如果证据是有利的,则权重是正的。 下图显示了一个模型为每个类学习的权重。红色代表负面权重,蓝色代表正面权重。 我们还添加了一些额外的证据,称为偏置。基本上,我们希望能够说有些东西更可能独立于输入。结果是给定输入x的属于类i的证据是: 其中wi是权重,bi是类别i的偏差,j是对输入图像中的像素进行求和的索引。然后,我们使用”softmax”函数将证据符号转换成我们的预测概率y: 在这里,softmax用作”activation”或”link”函数,将线性函数的输出整形成我们想要的形式 – 在这种情况下,概率分布超过10种情况。你可以把它看作是将证据的转换转化为我们在每个类中投入的概率。它被定义为: 如果将这个等式展开,你会得到: 但是,按第一种方式考虑softmax是更有帮助的:指数化输入,然后使其正则化。指数意味着多一个单位的证据增加了任何假设乘加的权重。而相反,少一个证据单位意味着一个假设获得了早期权重的一小部分。没有假设曾经有零或负权重。 Softmax然后归一化这些权重,使它们加起来为1,形成有效的概率分布。 (为了得到关于softmax函数的更多知识,参考部分在迈克尔·尼尔森的书中,有一个互动的可视化。) 您可以将我们的softmax回归看成如下所示,尽管有更多x。对于每个输出,我们计算x的加权和,加一个偏差,然后应用softmax。 如果我们把它写成等式,我们得到: 我们可以用”vectorize”这个程序,把它变成一个矩阵乘法和矢量加法,从而提升计算性能。 更简洁,我们可以写: 现在让我们把它转换成TensorFlow可以使用的东西。 实现回归为了在Python中进行高效的数值计算,我们通常使用NumPy一类的库,在Python之外执行耗时的操作,例如矩阵乘法,使用以另一种语言实现的高效代码。不幸的是,每一次操作都会返回到Python,这仍然会有很多开销。如果要在GPU上运行计算或以分布式方式运行计算,则传输数据的成本更高,所以此开销尤其糟糕。 TensorFlow也在Python之外进行繁重的工作,但是为了避免这种开销,还需要进一步的工作。 TensorFlow不是独立于Python运行一个昂贵的操作,而是让我们描述一个完全在Python之外运行的交互操作图。 (像这样的方法也可以在其他几个机器学习库中看到) 要使用TensorFlow,首先我们需要导入它。
我们通过操纵符号变量来描述这些交互操作。我们来创建一个:
我们也需要我们的模型的权重和偏置。我们可以想象把这些看作是额外的投入,但TensorFlow有一个更好的方法来处理它:
我们创造这些 注意到 我们现在可以实现我们的模型。只需要一行来定义它!
首先,我们通过表达式 就这么简单。经过几行简单的设置之后,我们只用一行代码来定义我们的模型。这并不是因为TensorFlow被设计成使得softmax回归特别容易:从机器学习模型到物理模拟,这只是描述多种数值计算的一种非常灵活的方式。一旦定义,我们的模型可以在不同的设备上运行:计算机的CPU,GPU甚至是手机! 训练为了训练我们的模型,我们需要定义模型的好坏标准。实际上,在机器学习中,我们通常定义一个模型的坏处,我们称之为成本或损失,它表示我们的模型离我们期望的结果有多远。我们尽量减少这个误差,误差越小,我们的模型就越好。 一个非常常见损失函数被称为”cross-entropy.” Cross-entropy产生于信息论中的信息压缩代码的思想,但它是从赌博到机器学习的很多领域,作为一个重要的想法。它被定义为: 其中y是我们预测的概率分布,而y’是真正的分布(具有数字标签的one-hot向量)。在一些粗略的意义上,cross-entropy正在测量我们的预测是如何低效的来描述真相。有关cross-entropy的更多细节超出了本教程的范围,但它非常值得理解。 要实现cross-entropy,我们需要先添加一个新的占位符来输入正确的答案:
然后我们可以实现cross-entropy函数 -sum (y’log(y)):
首先, 请注意,在源代码中,我们不使用这个公式,因为它在数值上是不稳定的。相反,我们应用 现在我们知道我们想要我们的模型做什么了,TensorFlow很容易训练它做到这一点。由于TensorFlow知道您的计算的整个图表,它可以自动使用反向传播算法有效地确定你的变量如何影响你所要求的最小损失。然后它可以应用你选择的优化算法来修改变量并减少损失。
在这种情况下,我们要求TensorFlow最小化 TensorFlow在这个场景之下实际做的是:添加新的操作到你的图(其中实现了反向传播和梯度下降)。然后它给你一个单一的操作,运行时,做一步梯度下降训练,稍微调整你的变量,以减少损失。 我们现在可以启动模型了,使用
我们首先必须创建一个操作来初始化我们创建的变量:
接下来开始训练 – 我们将运行1000次的训练步骤!
循环的每一步,从训练集中得到一百个随机数据点的”batch”。执行 使用小批量的随机数据称为随机训练 – 在这种情况下,随机梯度下降。理想情况下,我们希望将所有数据用于每一步训练,因为这样可以让我们更好地了解我们应该做什么,但是这样做很耗时。所以,相反,我们每次都使用不同的子集。这样做很省时,而且有很多相同的好处。 评估我们的模型我们的模型有多好? 首先让我们弄清楚我们预测了正确的标签。
这给了我们一个布尔的列表。为了确定什么分数是正确的,我们转换为浮点数,然后取平均值。例如,
最后,我们计算在测试数据上的准确性。
这应该是大约92%。 这个效果比较一般,因为我们正在使用一个非常简单的模型。做一些小的变化,我们可以达到97%。最好的模型可以达到超过99.7%的准确性! (欲了解更多信息,请看看这个结果列表。) 重要的是我们从这个模型中学到了东西。不过,如果您对这些结果感到有些失望,请查看下一个教程我们做得更好,并学习如何使用TensorFlow建立更复杂的模型! 参考资料
|
2023-10-27
2022-08-15
2022-08-17
2022-09-23
2022-08-13