↑ 收起筛选 ↑
卷积神经网络推导
2020-10-10

rbf神经网络即径向基函数神经网络(Radical Basis Function).径向基函数神经网络是一种高效的前馈式神经网络,它具有其他前向网络所不具有的最佳逼近性能和全局最优特性,并且结构简单,训练速度快.同时,它也是一种可以广泛应用于模式识别、非线性函数逼近等领域的神经网络模型.

这个太多了,卷积是一种结构,凡是包含这种结构的深度网络都是卷积神经网络.比较知名的有:VGG、GoogleNet、Resnet等

简单谈谈自己的理解吧.池化:把很多数据用最大值或者平均值代替.目的是降低数据量.卷积:把数据通过一个卷积核变化成特征,便于后面的分离.计算方式与信号系统中的相同.

看数据量吧,少点2000次就够了,多点几万次

一般都是定了一个固定的核的,例如你29*29的图片,就用5*5的核. 这些都是经验. 当然你也可以用大些的. 然后核的具体的值,就是要训练出来的, 核的初始化的话,若果你的输入是0-1之前,那么核值也可以初始化在0-1之间,不会有太大的误差.《神经网络之家》专讲神经网络这一块

假设原图为32*32的,卷积核尺寸为4,步长为2,则输出的图像应该是(32-4+2)/2=15,输出就应该是15*15的图像

作者:杨延生 链接: 来源:知乎 著作权归作者所有,转载请联系作者获得授权. "深度学习"是为了让层数较多的多层神经网络可以训练,能够work而演化出来的一系列的 新的结构和新的方法. 新的网络结构中最著名的就是CNN,它解决了

pooling理论在于,图像中相邻位置的像素是相关的.对一幅图像每隔一行采样,得到的结果依然能看.经过一层卷积以后,输入的图像尺寸变化不大,只是缩小了卷积核-1.根据相邻数据的相关性,在每个nxn区域内,一般2x2,用一个数代表原来的4个数,这样能把数据缩小4倍,同时又不会损失太多信息.一副24*24的图像.用5*5卷积核卷积,结果是20*20(四周各-2),经过2*2池化,变成10*10.

用一个卷积核滑动图片来提取某种特征(比如某个方向的边),然后激活函数用ReLU来压制梯度弥散.对得到的结果用另一个卷积核继续提取+reLU,然后池化(保留区域最大或者用区域平均来替换整个局部区域的值,保证平移不变性和一定程度上对过拟合的压制)之后“深度”的话,就会需要对池化后的结果继续用不同的卷积核进行 “卷积+relu”再池化的工作.最后得到的实质是一个图片的深度特征,然后实际分类需要另外加一层,一般是softmax. (也就是说如果对一个现成的已经训练完毕的卷积神经网络模型,只保留除了最后一层之外的部分,然后输入训练图片,把网络的输出重新送入一个多类的SVM再训练,最后也能得到差不多的结果,取决于svm的参数.)

延伸阅读: