登录    |    注册

信道(Channel)

深度学习模型的输入数据可以有多个信道。图像就是个典型的例子,它有红、绿和蓝三个颜色信道。一个图像可以被表示成一个三维的张量(Tensor),其中的维度对应于信道、高度和宽度。自然语言数据也可以有多个信道。

名词释义
关键词: 信道(Channel)

分类交叉熵损失(Categorical Cross-Entropy Loss)

分类交叉熵损失也被称为负对数似然(negative log likelihood)。这是一种用于解决分类问题的流行的损失函数,可用于测量两种概率分布(通常是真实标签和预测标签)之间的相似性。它可用 L = -sum(y * log(y_prediction)) 表示,其中 y 是真实标签的概率分布(通常是一个one-hot vector),y_prediction 是预测标签的概率分布,通常来自一

名词释义
关键词: 分类交叉熵损失(Categorical Cross-Entropy Loss)

Caffe Caffe

是由伯克利大学视觉和学习中心开发的一种深度学习框架。在视觉任务和卷积神经网络模型中,Caffe应用较多。

名词释义
关键词: Caffe Caffe

双向循环神经网络(Bidirectional RNN)

双向循环神经网络是一类包含两个方向不同的 RNN 的神经网络。其中的前向 RNN 从起点向终点读取输入序列,而反向 RNN 则从终点向起点读取。这两个 RNN 互相彼此堆叠,它们的状态通常通过附加两个矢量的方式进行组合。双向 RNN 常被用在自然语言问题中,因为在自然语言中我们需要同时考虑话语的前后上下文以做出预测。

名词释义
关键词: 双向循环神经网络(Bidirectional RNN)

分批标准化(BN:Batch Normalization)

分批标准化是一种按小批量的方式标准化层输入的技术。它能加速训练过程,允许使用更高的学习率,还可用作规范器(regularizer)。分批标准化在卷积和前馈神经网络中应用较多,但尚未应用到循环神经网络上。

名词释义
关键词: 分批标准化(BN:Batch Normalization)

通过时间的反向传播BPTT:

BackpropagationThrough Time通过时间的反向传播是应用于循环神经网络(RNN)的反向传播算法,可被看作是应用于 RNN 的标准反向传播算法,其中的每一个时间步骤(time step)都代表一个计算层,而且它的参数是跨计算层共享的。RNN 在所有的时间步骤中都共享了同样的参数,一个时间步骤的错误必然能「通过时间」反向到之前所有的时间步骤,该算法因此得名。处理长序列(数百个输入

名词释义
关键词: 通过时间的反向传播BPTT:

平均池化(Average-Pooling)

平均池化是一种在卷积神经网络中用于图像识别的池化(Pooling)技术。它的原理是,在特征的局部区域上滑动窗口(如像素),然后再取窗口中所有值的平均值。它将输入表征压缩成一种更低维度的表征。

名词释义
关键词: 平均池化(Average-Pooling)

自编码器(Autoencoder)

自编码器是一种神经网络模型,它的目标是预测输入自身,这通常通过网络中某个地方的「瓶颈(bottleneck)」实现。通过引入瓶颈,使得网络学习输入更低维度的表征,从而将输入压缩成一个好的表征。自编码器和 PCA 等降维技术相关,但因为它们的非线性本质,它们可以学习更为复杂的映射。目前已有一些范围涵盖较广的自编码器存在,包括降噪自编码器(Denoising Autoencoders)、变自编码器(V

名词释义
关键词: 自编码器(Autoencoder)

Alexnet Alexnet

是一种卷积神经网络架构的名字,这种架构曾在 2012 年 ILSVRC 挑战赛中以巨大优势获胜,它使导致人们重新关注对用于图像识别的卷积神经网络(CNN)。它由 5 个卷积层组成。其中一些后面跟随着最大池化(max-pooling)层和带有最终 1000 条路径的 softmax (1000-way softmax)的 3个全连接层。Alexnet 被引入到了使用深度卷积神经网络的 ImageNe

名词释义
关键词: Alexnet Alexnet

注意机制(Attention Mechanism)

注意机制由人类视觉注意所启发,是一种关注图像中特定部分的能力。注意机制可被整合到语言处理和图像识别的架构中,以帮助网络学习在做出预测时应该「关注」什么。

名词释义
关键词: 注意机制(Attention Mechanism)