以下关于FNN和错误反向传播(BP)算法的说法错误的是
A.BP算法是从输入层开始,逐层计算δ信号调整自身权重,并且将δ信号传向后一层
B.BP算法的出现解决了多层神经网络权重调整困难的问题
C.BP算法的核心是对隐含层神经元误差E的估计
D.BP算法对多层网络训练时使用的sigmoid激活函数存在“梯度弥散”问题
- · 有3位网友选择 B,占比37.5%
- · 有3位网友选择 C,占比37.5%
- · 有2位网友选择 A,占比25%
A.BP算法是从输入层开始,逐层计算δ信号调整自身权重,并且将δ信号传向后一层
B.BP算法的出现解决了多层神经网络权重调整困难的问题
C.BP算法的核心是对隐含层神经元误差E的估计
D.BP算法对多层网络训练时使用的sigmoid激活函数存在“梯度弥散”问题
A、BP算法的提出很好地解决了“多层”问题
B、2001年互联网泡沫破裂导致许多人工神经网络的研究被迫中断
C、LeCun将BP算法应用于神经网络的训练,并提出了卷积神经网络的第一个正式模型——LeNet-5
D、九十年代中期提出的SVM算法取代神经网络算法成为主流
A、抽象神经元模型MP很好地解决了处理、学习信息的问题
B、人工神经元和生物神经元都具有信息汇总和信息传输的功能
C、明斯基在1969年提出“深层神经网络的研究是没有价值的”这一观点
D、辛顿(Hitton)成功应用BP算法来训练多层感知器,很好地解决非线性分类问题
A、感知器的误差足够精确,权重能够快速收敛
B、学习率用于控制权重调整
C、感知器学习样本特征的过程在模型中体现为感知器权重的调整过程
D、感知器的信号处理分为“输入、汇总、激活、输出”四个部分
A、感知器模型的激活函数可导,可以通过梯度下降求解损失函数最小值
B、损失函数用于衡量当前权重在整个数据集上的总误差
C、标准神经元每个输入端具有不同的权重
D、Sigmoid函数是连续可导的,同时具有“两极分化”的特点
A、每个卷积层中的卷积核都需要处理全部接受到的信息
B、卷积神经网络是目前网络深度最深的深度神经网络模型之一
C、卷积核用来实现对输入信号的各种处理,不同的卷积核实现不同的功能
D、池化操作对多个卷积核得到的信息进行降维,只保留重要信息
A、2
B、3
C、4
D、1
A、隐含层神经元可以直接直接观测其误差,也可以调整其权重
B、网络误差是由多层信号累积导致,BP算法将误差“分配”到各个层
C、从输出层开始,逐层调整自身权重
D、输出层得到误差信号之后,将该误差按照权重比例“反传”给上一层神经元
A、我们就可以使用感知器来学习样本,“感知”到两类样本的差别
B、不用学习,感知器就可以正确预测样本的类型
C、感知学习的过程,权重保持不变
D、感知器模型通过调整权重,所有样本都能激活神经元
A、对于一个样本,如果当前权重能够正确判断其类型,就减小当前权重
B、对于一个样本,如果当前权重不能够正确判断其类型,则惩罚当前权重,降低其比例
C、对权重的训练直到某个权重对所有样本均不产生错误,或者错误不再降低
D、对于一个样本,如果当前权重能够正确判断其类型,就提高其比例
A、具有多个输入端,每个输入端具相同的权重
B、神经元具有Sigmoid或者类似的可导激活函数
C、神经元能够根据误差信号,通过梯度下降法调整权重,实现学习
D、具有一个或多个输出端,输出端上的信号一致
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!