登录    |    注册

计算机视觉(Computational Vision)

计算机视觉就是教会计算机“看”计算机视觉是由相机拍摄图像,通过电脑对图像中的目标进行识别和检测。研究内容主要有:通过采集图片或视频进行处理分析,从中获取相对应的信息。主要可以分为:图像采集、处理、运动控制部分。

名词释义
关键词: 计算机视觉(Computational Vision)

人工智能(Artificial Intelligence)

可以从英文角度进行理解。Artificial:人造的 。Intelligence:这个词在这里可以译作智能,用英英可以解释为capacity of logic,understanding,self-awareness,learning,knowledge,reasonging,planning,creativity and problem soling.这样看下来就不难理解人工智能了。

名词释义
关键词: 人工智能(Artificial Intelligence)

Kohonen 网络

(KN,也称之为自组织(特征)映射(SOM/SOFM:self organising (feature) map))。KN利用竞争学习来对数据进行分类,不需要监督。先给神经网络一个输入,而后它会评估哪个神经元最匹配该输入。然后这个神经元会继续调整以更好地匹配输入数据,同时带动相邻的神经元。相邻神经元移动的距离,取决于它们与最佳匹配单元之间的距离。KN有时也不被认为是神经网络。

名词释义
关键词: Kohonen 网络

支持向量机(SVM:Support vector machines)

能为分类问题找出最优方案。传统意义上,它们只能处理线性可分的数据;比如找出哪张图片是加菲猫、哪张是史努比,此外就无法做其它输出了。训练过程中,SVM可以理解为:先在平面图表上标绘所有数据(加菲猫、史努比),然后找出到那条能够最好区分这两类数据点的线。这条线能把数据分为两部分,线的这边全是史努比,线的那边全是加菲猫。而后移动并优化该直线,令两边数据点到直线的距离最大化。分类新的数据,则将该数据点画在

名词释义
关键词: 支持向量机(SVM:Support vector machines)

液态机(LSM:Liquid state machines)

换汤不换药,跟ESN同样相近。区别在于,LSM是一种脉冲神经网络(spiking neural networks),用阈值激活函数(threshold functions)取代了sigmoid激活函数,每个神经元同时也是具有累加性质的记忆单元。因此,当神经元状态更新时,其值不是相邻神经元的累加值,而是它自身状态值的累加。一旦累加到阈值,它就释放能量至其它神经元。这就形成了一种类似于脉冲的模式:神经

名词释义
关键词: 液态机(LSM:Liquid state machines)

极限学习机(ELM:Extreme learning machines)

本质上是拥有随机连接的FFNN。它们与LSM、ESN极为相似,除了循环特征和脉冲性质,它们还不使用反向传播。相反,它们先给权重设定随机值,然后根据最小二乘法拟合来一次性训练权重(在所有函数中误差最小)。这使ELM的函数拟合能力较弱,但其运行速度比反向传播快多了。

名词释义
关键词: 极限学习机(ELM:Extreme learning machines)

回声状态网络(ESN)

回声状态网络(ESN:Echo state networks)是另一种不同类型的(循环)网络。 它的不同之处在于:神经元之间的连接是随机的(没有整齐划一的神经细胞层),其训练过程也有所不同。不同于输入数据后反向传播误差,ESN先输入数据、前馈、而后更新神经元状态,最后来观察结果。它的输入层和输出层在这里扮演的角色不太常规,输入层用来主导网络,输出层作为激活模式的观测器随时间展开。在训练过程中,只有

名词释义
关键词: 回声状态网络(ESN)

深度残差网络(DRN)

深度残差网络(DRN: Deep residual networks)是非常深的FFNN网络,它有一种特殊的连接,可以把信息从某一神经细胞层传至后面几层(通常是2到5层)。该网络的目的不是要找输入数据与输出数据之间的映射,而是致力于构建输入数据与输出数据+输入数据之间的映射函数。本质上,它在结果中增加一个恒等函数,并跟前面的输入一起作为后一层的新输入。结果表明,当层数超过150后,这一网络将非常擅

名词释义
关键词: 深度残差网络(DRN)

BiRNN、BiLSTM、BiGRU 双向循环神经网络(BiRNN:Bidirectional recurrent neural networks)

双向长短期记忆网络(BiLSTM:bidirectional long / short term memory networks )和双向门控循环单元(BiGRU:bidirectional gated recurrent units)在图表中并未呈现出来,因为它们看起来与其对应的单向神经网络结构一样。所不同的是,这些网络不仅与过去的状态有连接,而且与未来的状态也有连接。比如,通过一个一个地输入字

名词释义
关键词: BiRNN、BiLSTM、BiGRU 双向循环神经网络(BiRNN:Bidirectional recurrent neural networks)

神经图灵机(NTM)

神经图灵机(NTM: Neural Turing machines)可以理解为对LSTM的抽象,它试图把神经网络去黑箱化(以窥探其内部发生的细节)。NTM不是把记忆单元设计在神经元内,而是分离出来。NTM试图结合常规数字信息存储的高效性、永久性与神经网络的效率及函数表达能力。它的想法是设计一个可作内容寻址的记忆库,并让神经网络对其进行读写操作。NTM名字中的“图灵(Turing)”是表明,它是图灵

名词释义
关键词: 神经图灵机(NTM)