Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

邵洲作者

一文学会如何在Keras中开发LSTMs(附代码)

LSTM是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。在自然语言处理语言识别等一系列的应用上都取得了很好的效果。

《Long Short Term Memory Networks with Python》是澳大利亚机器学习专家Jason Brownlee的著作,里面详细介绍了LSTM模型的原理和使用。

该书总共分为十四个章节,具体如下:

第一章:什么是LSTMs?

第二章:怎么样训练LSTMs?

第三章:怎么样准备LSTMs的数据?

第四章:怎么样在Keras中开发LSTMs?(本期内容)

第五章:序列预测建模(下周一发布)

第六章:怎么样开发一个Vanilla LSTM模型?

第七章:怎么样开发Stacked LSTMs?

第八章:开发CNN LSTM模型

第九章:开发Encoder-Decoder LSTMs

第十章:开发Bidirectional LSTMs

第十一章:开发生成LSTMs

第十二章:诊断和调试LSTMs

第十三章:怎么样用LSTMs做预测?

第十四章:更新LSTMs模型

本文的作者对此书进行了翻译整理之后,分享给大家,本文是第四期内容。

第一期内容为:一万字纯干货|机器学习博士手把手教你入门LSTM(附代码资料)

第二期内容为:干货推荐|如何基于时间的反向传播算法来训练LSTMs?

第三期内容为:干货推荐|如何准备用于LSTM模型的数据并进行序列预测?(附代码)

我们还将继续推出一系列的文章来介绍里面的详细内容。本文有11000字左右,阅读需11分钟,建议收藏学习。

4.0 前言

4.0.1 课程目标

本课程的目标是理解如何使用Python中的Keras深度学习库来定义、拟合和评价LSTM模型。完成这一课之后,你会知道:

  • 如何定义一个LSTM模型,包括怎么样将你的数据变型成为所需要的3D输入;

  • 如何拟合和评估你的LSTM模型并且将其用来预测新的数据;

  • 如何对模型中的内部状态以及当其重置时进行细粒度的控制。

4.0.2 课程概览

本课程分为7个部分,它们是:

  1. 定义模型;

  2. 编译模型;

  3. 拟合模型;

  4. 评价模型;

  5. 用模型做预测;

  6. LSTM状态管理;

  7. 准备数据的样例。

让我们开始吧!

4.1 定义模型

第一步是定义你的网络。Keras中的神经网络被定义为一系列的层。这些层的容器是 Sequential类。第一步是创建 Sequential类的实例。然后你可以创建你的层,并按照它们应该的连接的顺序添加它们。由存储单元组成的LSTM循环层被称为 LSTM()。一个全连接层经常跟着一个LSTM层,用于输出一个预测的层被称为 Dense()

例如,我们可以定义一个具有两个存储单元的LSTM隐藏层,连接着带有一个神经元的一个全连接输出层,如下:

  1. model = Sequential()

  2. model.add(LSTM(2))

  3. model.add(Dense(1))

表 4.1 定义一个LSTM模型的例子

但是我们也可以通过创建一个层的数组,并将其传递给 Sequential类的构造函数来完成这一步。

  1. layers = [LSTM(2), Dense(1)]

  2. model = Sequential(layers)

表 4.2 第二个定义一个LSTM模型的例子

网络中的第一个隐藏层必须定义期望输出的数量,例如输入层的形状。输入必须是三维的,由样本、时间步长和特征组成。

  • 样本。它们是你数据中的行。一个样本可以是一个序列。

  • 时间步长。这些是对特征的过去观察值,例如滞后的变量。

  • 特征。这些是数据中的列。

假设你的数据被加载为了一个NumPy数组,你可以使用NumPy中的thereshape() 函数将1D或者2D的数据集转换为3D数据集。您可以调用您的NumPy数组中的NumPy函数,并传递给一个元组的维数给它,该维数就是你需要转成多少维的值。假设我们在NumPy数组中有两个列的输入数据(X),我们可以把这两个列当做两个时间步长来对待,将其改写如下:

  1. data = data.reshape((data.shape[0], data.shape[1], 1))

表 4.3 变换有1个时间步长的NumPy数组的例子

如果你想让你的2D数据中的列成为一个时间步长的特征,你可以变形,如下:

  1. data = data.reshape((data.shape[0], 1, data.shape[1]))

表 4.4 变换有1个时间步长的NumPy数组的例子

你可以指定输入形状参数,该参数期望是一个包含时间步长和特征数量的元祖。例如,如果我们有一个单变量序列的两个时间步长和一个特征,每行具有两个之后的观测值,则具体如下:

  1. model = Sequential()

  2. model.add(LSTM(5, input_shape=(2,1)))

  3. model.add(Dense(1))

表 4.5 定义LSTM模型的输入的例子

样本的数量不必是指定的。模型假定一个或者多个样本,留给你定义的只有时间步长以及特征。本课的章节提供了为LSTM模型准备输入数据的附加示例。

Sequential模型想象成为一个管道,一端输入原始数据,另外一端输出预测结果。在Keras中这是一个很有用的容器,它传统上是和一层相联系的,可以可以拆分并添加为一个单独的层。这样可以清楚地表明,它们在数据从输入到预测的转换中的作用。例如,激活函数,即变换一个从来自于一层的每一个神经元的求和的信号,可以被提取出来,并作为一个像层一样的对象,叫做Activition,添加到 Sequential中。

  1. model = Sequential()

  2. model.add(LSTM(5, input_shape=(2,1)))

  3. model.add(Dense(1))

  4. model.add(Activation('sigmoid'))

表 4.6 在输出层带有sigmoid激活函数LSTM模型的例子

激活函数的选择对于输出层来说是最重要的,因为它将决定预测所采用的格式。例如,下面是一些常见的预测建模问题类型和结构以及在输出层中使用的标准激活函数

  • 回归。线性激活函数,或者线性,神经元的数量和输出的数量相匹配。这是用于全连接层(Dense)层的默认激活函数

  • 二分类(2类)逻辑激活函数,或者sigmoid,一个神经元的输出层。

  • 多分类(大于2类)。Softmax激活函数,或者softmax,假设是one hot 编码输出模式每个类值一个输出神经元

4.2 编译模型

一旦开发了我们的网络,我们就必须编译它。编译是一个有效的步骤。它将我们所定义的简单层序列转换成一系列高效的矩阵变换格式,以便在GPU或者CPU上执行,这取决于Keras是如何配置的。将编译看做是一个网络的预计算步骤。一个模型建立之后总是需要编译的。

编译需要多个参数被指定,尤其是那些需要调整来训练你网络的。具体来说,用于网络训练的优化函数以及用于评价网络的损失函数,它被优化函数最小化了。

例如,下面是编译指定梯度下降(sgd)和均方差(mse)的损失函数模型的情况,用于解决回归类型的问题。

  1. model.compile(optimizer= 'sgd' , loss= 'mse' )

表 4.7 编译LSTM模型的例子

或者,在提供编译不走的参数之前创建和配置 optimizer

  1. algorithm = SGD(lr=0.1, momentum=0.3)

  2. model.compile(optimizer=algorithm, loss= 'mse' )

表 4.8 用SGD优化算法编译一个LSTM模型的例子

预测建模问题的类型可对所使用的损失函数进行约束。例如,下面是不同的预测模型类型的一些标准损失函数

  • 回归:均方误差,或者 mean squared error,简称 mse

  • 二分类(2类):对数损失,也叫做交叉熵或者 binary crossentropy

  • 多分类(大于2类):多分类的对数损失, categorical crossentropy

最常见的优化算法是经典的随机梯度下降算法,但是Keras还支持一套其他扩展的经典优化算法,这种算法表现很好、配置很少。由于它们通常的性能更好,也许最常用的优化算法是:

  • Stochastic Gradient Descent,或者sgd。

  • Adam,或者adam。

  • RMSprop,或者rmsprop。

最后,除了损失函数外,你也可以指定性能指标(Metrics)来收集拟合你模型时候的信息。总的来说,最有用的附加性能指标(Metrics)来收集的是分类问题的准确性(例如‘accuracy’或者简称‘acc’ )。用来收集的性能指标(Metrics)可以通过性能指标(Metrics)数组中的名称或者损失函数的名字来指定。例如:

  1. model.compile(optimizer= 'sgd' , loss= 'mean_squared_error' , metrics=[ 'accuracy' ])

表 4.9 用一个性能指标(Metrics)编译LSTM模型的例子

4.3 拟合模型

一旦网络被编译,它就可以拟合,这意味着适应训练数据集上的权重。拟合网络需要指定训练数据集,包括输入模式的性能指标(Metrics)X以及和输出类型匹配的数组 y。网络采用基于时间的反向传播算法进行训练,并根据优化算法和损失函数特性对模型进行优化。

反向传播算法要求对网络进行训练数据集中的所有序列进行特定数量的周期或者暴露训练集中的所有序列。每个周期(epoch)可以被分为成组的输入-输出模式对,这被称为批次(batches)。这定义了网络在一个时代内更新权重之前所暴露的模式的数量。它也是一种有效的优化,确保在一段时间内没有太多的输入模式被加载到存储器中。

  • Epoch。遍历训练数据集中的所有样本,并更新网络权重。LSTM可以训练及时、几百或者数千个周期(epoch)。

  • Batch。通过训练数据集中的样本子集,然后更新网络权值。一个周期(epoch)是由一个或者多个批次(batch)组成的。

下面是batch size一些常用的配置:

  • batch_size=1。在每个样本之后更新权重,并且该过程被称为随机梯度下降

  • batch_size=32。通常的值是32,64和128,调整来符合预期的效率和模型更新速率。如果批大小(batch size)不是一个周期(epoch)中一个样本数量的因素,那么在周期(epoch)的结尾,则在结束时运行剩余样本的一个额外的批大小(batch size)。

  • batch_size=n。其中,n是训练数据集的样本数。权重在每个周期(epoch)中被更新,这个过程被称为批梯度下降(batch gradient descent)。

batch size为32的小批量梯度下降法(Mini-batch gradient descent)是LSTM的一个常见配置。拟合网络的一个例子如下:

  1. model.fit(X, y, batch_size=32, epochs=100)

表 4.10 拟合LSTM模型的例子

一旦拟合,返回一个历史对象,该对象在训练期间提供对模型姓名的总结。当编译模型的时候,这包含损失和任何的额外的性能指标(Metrics)被指定,并在每个周期(epoch)被记录。这些性能指标(Metrics)可以被记录、绘制和分析,以了解网络在训练数据集上是过拟合(overfitting)还是欠拟合(underfittting)。

根据网络规模和训练数据的大小,训练可能会花费很长的时间,从秒到数天。默认情况下,进度条显示在每个epoch的命令行上。这可能会对你造成很多的噪音,或者会对你的环境造成问题,比如你在一个交互式的笔记本或者IDE中。你可以通过将 verbose参数设置为2来将显示的信息量减少到仅损失的每个周期(epoch)。你可以通过设置 verbose为0。例如:

  1. history = model.fit(X, y, batch_size=10, epochs=100, verbose=0)

表 4.11 拟合一个LSTM模型并检索无 verbose输出的历史的例子

4.4 评价模型

一旦网络被训练,它就可以被评估。网络可以对训练数据进行评估,但是这不会作为预测模型提供网络性能的有用指示,因为它以前见过所有这些数据。我们可以在一个单独的数据集上评估网络的性能,在测试期间看不见。在未来对于看不见的数据,这将提供网络性能的估计。

该模型评估了所有测试模式的损失,以及模型编译时的任何其他度量,如分类精度。返回一个评估的度量表。如,对于使用精度度量编译模型,我们可以在新的数据集上对其进行评估如下:

  1. loss, accuracy = model.evaluate(X, y)

表 4.12 衡量一个LSTM模型的例子

与网络一样,提出 verbose输出的概念是为了评价模型的进度。我们可以通过将 verbose参数设置为0来关闭这个。

  1. loss, accuracy = model.evaluate(X, y, verbose=0)

表 4.13 衡量一个没有 verbose输出的LSTM的例子

4.5 预测模型

一旦对我们的拟合模型的性能感到满意,我们可以用它来预测新的数据。这就在带有新输入模式数组的模型上调用 predict()函数一样简单。例如:

  1. predictions = model.predict(X)

表 4.14 在拟合LSTM模型上预测的例子

预测将以网络的输出层提供的格式返回。在回归问题的情况下,这些预测可以直接和线性激活函数提供问题的格式一样。

对于一个二分类问题,预测可以使第一类的概率数组,它可以通过舍入转换为1或0。对于一个多分类问题,结果可能是一个概率数组的形式(假设是一个one hot编码输出变量),它可能需要使用NumPy的argmax()函数转换成单类输出预测。另外,对于分类问题,我们可以使用 predict_classes()函数来自动地将不清晰的预测转换为清晰的整数类值。

  1. predictions = model.predict_classes(X)

表 4.15 拟合LSTM模型上预测类别的例子

随着对网络的拟合和评估, verbose被输出以便用于反映模型预测的进度。我们可以通过将 verbose参数设置为0来关闭这个。

  1. predictions = model.predict(X, verbose=0)

表 4.16 没有 verbose输出时预测的例子

根据拟合LSTM模型来预测将会在第十三章中详细的讲述。

4.6 LSTM状态管理

每个LSTM存储单元都保持着积累的内部状态。这种内部状态可能需要在网络训练和预测时对序列问题进行详细的管理。默认情况下,网络中的所有LSTM存储单元的内部状态在每个批次之后被重置,例如,当网络权重被更新时。这意味着批次大小的配置在三个时期上施加了张力:

  • 学习的正确性,或更新前处理多少个样本;

  • 学习的速度,或者权重的更新频率;

  • 内部状态,或内部状态重置频率。

通过顶一个LSTM层作为状态,Keras提供了将内部状态更新重置的很灵活的方式。这可以通过将LSTM层上的状态参数设置为true来实现。当使用状态LSTM层时,还必须通过设置输入形状参数来确定网络中输入形状的批大小(batch size),并且批处理大小必须是训练数据集中样本数量的一个因素。

批输入(batch input)形状参数需要一个定义为批处理大小、时间步长和特征的三维数组。

例如,我们可以定义一个状态LSTM,在训练数据集上训练100个样本,10个批次大小(batch size),1个特征的5个时间步长,如下:

  1. model.add(LSTM(2, stateful=True, batch_input_shape=(10, 5, 1)))

表 4.17 定义一个带状态的LSTM层的例子

状态LSTM不会在每个批次结束时重置内部传状态。相反,您可以通过调用 reset_states()函数对何时重置内部状态进行细粒度控制。例如,我们可能希望在每个周期(epoch)结束时重置内部状态,我们可以这样做:

  1. for i in range(1000):

  2.    model.fit(X, y, epochs=1, batch_input_shape=(10, 5, 1))

  3.    model.reset_states()

表 4.18 一个状态LSTM手动迭代训练批次的例子

在进行预测时,也必须使用相同状态的LSTM中的相同批次大小(batch size)。

  1. predictions = model.predict(X, batch_size=10)

例 4.19 用状态LSTM预测的例子

LSTM层的内部状态也在评估网络和进行预测时积累。因此,如果使用的是状态LSTM,则必须在验证数据集或者预测之后对网络进行重置状态。

在默认情况下,一个周期(epoch)的状态被洗牌。在使用神经网络的多层感知机进行工作的时候这是一个很好的做法。如果您尝试在样本间保存状态,那么训练数据集中的样本顺序可能是重要的并且必须保留。这可以通过设置 shuffle参数为False来完成,例如:

  1. for i in range(1000):

  2.    model.fit(X, y, epochs=1, shuffle=False, batch_input_shape=(10, 5, 1))

  3.    model.reset_states()

表 4.20 拟合一个状态LSTM时使样本不shuffle的例子

为了使这个更具体,下面是管理状态的3个常见的例子:

  • 在每个序列结束的时候进行预测,并且序列是独立的。状态应该在每个序列之后重置,通过将批次大小设置为1。

  • 长序列被分割成多个子序列(每个样本具有许多的时间步长)。状态应该在网络暴露于整个序列之后通过LSTM状态化,关闭子序列的洗牌(shuffling),并在每个周期(epoch)之后重置状态之后被重置。

  • 一个非常长的子序列被分成多个子序列(每个样本有许多时间步长)。训练质量比长期内部状态更重要,使用128个样本的批次大小(batch size),然后更新网络权重和状态重置。

我鼓励你头脑风暴你的序列预测问题和网络配置的许多不同的框架,测试和选择那些在预测误差方面最有希望的模型。

4.7 准备数据的例子

很难理解如何准备您的序列数据以输入到LSTM模型。通常,围绕如何定义LSTM模型的输入层存在混淆。关于如何将您的序列数据转换为一维或二维的数字矩阵到LSTM输入层所需的3D格式也存在混淆。在这一节中,您将通过两个示例来修改序列数据,并将输入层改为LSTM模型。

4.7.1 单个输入样本的LSTM的例子

考虑一个具有多个时间步长和一个特征的序列。例如,这可以是10个值的序列:

  1. 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.0

表 4.21 序列的例子

我们可以将这个序列的数字定义为NumPy数组。

  1. from numpy import array

  2. data = array([0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.0])

表 4.22 将一个序列定义为NumPy数组的例子

我们可以使用NumPy的 reshape()函数来将这个一维数组变成三维数组,每个时间步长上有1个样本、10个时间步长和一个特征。在数组上调用时, reshape()函数采用一个参数,它是数组的新的形状。我们不能传递任何一组数字,变换必须要均匀地重新排列数组中的数据。

  1. data = data.reshape((1, 10, 1))

表 4.23 变换一个数组的例子

一旦变换了,我们可以输出数组新的形状。

  1. print(data.shape)

表 4.24 打印序列新形状的例子

将所有的都放在一起,完整的例子展示如下:

  1. from numpy import array

  2. data = array([0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.0])

  3. data = data.reshape((1, 10, 1))

  4. print(data.shape)

  5. print(data)

表 4.25 变换一个样本的例子

运行例子打印单个样本的3D形状。

  1. (1, 10, 1)

  2. [[[ 0.1]

  3.  [ 0.2]

  4.  [ 0.3]

  5.  [ 0.4]

  6.  [ 0.5]

  7.  [ 0.6]

  8.  [ 0.7]

  9.  [ 0.8]

  10.  [ 0.9]

  11.  [ 1. ]]]

表 4.26 单个样本变型输出的例子

这个数据通过设置 inpput_shape=(10,1)现在已经准备好被用于输入(X)到LSTM模型中。

  1. model = Sequential()

  2. model.add(LSTM(32, input_shape=(10, 1)))

  3. ...

表 4.27 定义LSTM模型输入层的例子

4.7.2 多输入特征的LSTM例子

考虑到你的模型可能有多个并行序列作为输入的情况。例如,下面是有10个值的两个并行的序列:

  1. series 1: 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.0 series 2: 1.0, 0.9, 0.8, 0.7, 0.6, 0.5, 0.4, 0.3, 0.2, 0.1

表 4.28 并行序列的例子

我们可以将这些数据定义为2列10行的数据:

  1. from numpy import array

  2. data = array([ [0.1, 1.0], [0.2, 0.9], [0.3, 0.8], [0.4, 0.7], [0.5, 0.6], [0.6, 0.5], [0.7, 0.4], [0.8, 0.3], [0.9, 0.2], [1.0, 0.1]])

表 4.29 将并行序列定义为一个NumPy数组的例子

这个数据可以被化为具有10个时间步长和2个特征的1个样本,它可以变形为3D数组如下:

  1. data = data.reshape(1, 10, 2)

表 4.30 变形一个序列的例子

将所有这些放在一起,完整的例子显示如下:

  1. from numpy import array

  2. data = array([ [0.1, 1.0], [0.2, 0.9], [0.3, 0.8], [0.4, 0.7], [0.5, 0.6], [0.6, 0.5], [0.7, 0.4], [0.8, 0.3], [0.9, 0.2], [1.0, 0.1]])

  3. data = data.reshape(1, 10, 2)

  4. print(data.shape)

表 4.31 变形并行序列的例子

运行例子,打印单个样本新的3D形状如下:

  1. (1, 10, 2)

表 4.32 变换并行序列输出的例子

这个数据现在已经通过设置 input_shape=(10,2)准备好被用作输入(X)到LSTM模型中。

  1. model = Sequential()

  2. model.add(LSTM(32, input_shape=(10, 2)))

  3. ...

表 4.33 定义LSTM模型输入层的例子

4.7.3 LSTM输入的建议

本章节列出了一些帮助您准备LSTM输入数据的提示:

  • LSTM输入层必须是3D的;

  • 3个输入维度的含义是:样本、时间步长和特征。

  • LSTM输入层在输入隐藏层上由输入形状参数决定。

  • 输入形状参数采用两个值的元组,以减少时间步长和特征的数量。

  • 假设样本的数量是1个或者更多。

  • NumPy数组中的 reshape()函数可以用来将1D或者2D数据变换为3D的。

  • reshape()函数将元组作为新的形状的参数

4.8 扩展阅读

本章节提供一些用于扩展阅读的资料。

4.8.1 Keras APIs

  • Keras API for Sequential Models.

  • Keras API for LSTM Layers.

  • Keras API for optimization algorithms.

  • Keras API for loss functions.

4.8.2 其它APIs

  • NumPy reshape() API.

  • NumPy argmax() API.

4.9 扩展

你想深入了解Keras中LSTMs的生命周期吗?这个章节列出了本课程中一些具有挑战性的扩展。

  • 列出5个序列预测的问题并重点说明怎么样将数据分割成为样本、时间步长以及特征;

  • 列出5个序列预测问题并单独指出每个输出层的激活函数

  • 研究Keras矩阵以及损失函数,并列出5个可以用于回归序列预测问题和分类序列预测问题的5个矩阵;

  • 研究Keras历史对象并编写示例代码来创建Matplotlib的线图,该图是从拟合一个LSTM模型捕获的矩阵;

  • 列出5个序列预测问题,以及如何使得网络更好地管理每个节点的内部状态。

在网上发布你的扩展并与我分享链接。我很想知道你是怎么样想的!

4.10 总结

在本课程中,你发现了使用Keras库的LSTM循环神经网络的5步生命周期。特别地,你学到了:

  • 怎么样定义一个LSTM模型,包括怎么样去将你的数据变型为所需要的3D输入;

  • 怎么样定义和评价你的LSTM模型,以及怎么样使用它在新数据上做预测;

  • 怎么样对模型中的内部状态以及当其重置时进行细粒度的控制。

AMiner学术头条
AMiner学术头条

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。系统2006年上线,吸引了全球220个国家/地区800多万独立IP访问,数据下载量230万次,年度访问量1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

https://www.aminer.cn/
专栏二维码
工程KerasLSTMs循环神经网络
91
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

激活函数技术

在 计算网络中, 一个节点的激活函数定义了该节点在给定的输入或输入的集合下的输出。标准的计算机芯片电路可以看作是根据输入得到"开"(1)或"关"(0)输出的数字网络激活函数。这与神经网络中的线性感知机的行为类似。 一种函数(例如 ReLU 或 S 型函数),用于对上一层的所有输入求加权和,然后生成一个输出值(通常为非线性值),并将其传递给下一层。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

欠拟合技术

使用太少参数,以致于不能很好的拟合数据,称为拟合不足(欠拟合)现象

交叉熵技术

交叉熵(Cross Entropy)是Loss函数的一种(也称为损失函数或代价函数),用于描述模型预测值与真实值的差距大小

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

损失函数技术

在数学优化,统计学,计量经济学,决策理论,机器学习和计算神经科学等领域,损失函数或成本函数是将一或多个变量的一个事件或值映射为可以直观地表示某种与之相关“成本”的实数的函数。

时间递归神经网络技术

时间递归神经网络 (aka.循环神经网络, RNN) 是一类擅长处理序列数据的神经网络,其单元连接形成一个有向环。一般人工神经网络(ANN)由多层神经元组成,典型的连接方式是在前馈神经网络中,仅存在层与层之间的互相连接,而同层神经元之间没有连接。RNN在此基础上结合了隐藏层的循环连接,从而能从序列或时序数据中学习特征和长期依赖关系。RNN隐藏层的每一单独计算单元对应了数据中某个时间节点的状态,它可以是简单神经元、神经元层或各式的门控系统。 每一单元通过参数共享的层间顺序连接,并随着数据序列传播。这一特性使得RNN中每一单元的状态都取决于它的过去状态,从而具有类似“记忆”的功能,可以储存并处理长时期的数据信号。 大多数RNN能处理可变长度的序列,理论上也可以建模任何动态系统。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

反向传播算法技术

反向传播(英语:Backpropagation,缩写为BP)是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法计算对网络中所有权重计算损失函数的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。 在神经网络上执行梯度下降法的主要算法。该算法会先按前向传播方式计算(并缓存)每个节点的输出值,然后再按反向传播遍历图的方式计算损失函数值相对于每个参数的偏导数。

梯度下降技术

梯度下降是用于查找函数最小值的一阶迭代优化算法。 要使用梯度下降找到函数的局部最小值,可以采用与当前点的函数梯度(或近似梯度)的负值成比例的步骤。 如果采取的步骤与梯度的正值成比例,则接近该函数的局部最大值,被称为梯度上升。

随机梯度下降技术

梯度下降(Gradient Descent)是遵循成本函数的梯度来最小化一个函数的过程。这个过程涉及到对成本形式以及其衍生形式的认知,使得我们可以从已知的给定点朝既定方向移动。比如向下朝最小值移动。 在机器学习中,我们可以利用随机梯度下降的方法来最小化训练模型中的误差,即每次迭代时完成一次评估和更新。 这种优化算法的工作原理是模型每看到一个训练实例,就对其作出预测,并重复迭代该过程到一定的次数。这个流程可以用于找出能导致训练数据最小误差的模型的系数。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

分类问题技术

分类问题是数据挖掘处理的一个重要组成部分,在机器学习领域,分类问题通常被认为属于监督式学习(supervised learning),也就是说,分类问题的目标是根据已知样本的某些特征,判断一个新的样本属于哪种已知的样本类。根据类别的数量还可以进一步将分类问题划分为二元分类(binary classification)和多元分类(multiclass classification)。

过拟合技术

过拟合是指为了得到一致假设而使假设变得过度严格。避免过拟合是分类器设计中的一个核心任务。通常采用增大数据量和测试样本集的方法对分类器性能进行评价。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

语言识别技术

在自然语言处理中,语言识别或语言猜测是确定给定内容所使用的自然语言的问题。针对该问题的计算方法被视为文本分类的特例,并用各种统计方法解决。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

批次技术

模型训练的一次迭代(即一次梯度更新)中使用的样本集。

推荐文章
代码在哪里?