下面关于激活函数的说法中错误的是
A.隐含层或输出层具有激活函数。
B.输入层没有激活函数。
C.同一神经网络的激活函数必须是相同的。
D.同一神经网络的隐含层和输出层的激活函数可以不同。
- · 有4位网友选择 B,占比36.36%
- · 有3位网友选择 C,占比27.27%
- · 有2位网友选择 D,占比18.18%
- · 有2位网友选择 A,占比18.18%
A.隐含层或输出层具有激活函数。
B.输入层没有激活函数。
C.同一神经网络的激活函数必须是相同的。
D.同一神经网络的隐含层和输出层的激活函数可以不同。
A、对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题。
B、ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况。
C、在神经网络训练中,动态调整学习率综合考虑当前点的梯度、最近几次训练误差的降低情况等效果更好。
D、随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快。
A、感知器模型中的激活函数是二值函数时,损失函数是可导的
B、感知器模型的关键,就是通过调整权重使一类样本可以激活神经元,而另一类则不会
C、权重调整采用“奖惩分明”策略,即对于能够准确判断样本类型的权重,提高当前权重比例,反之则降低当前权重比例
D、一层感知器只能针对线性可分的数据集分类,无法解决异或(XOR)问题
执行等
B、触发器的执行不是由程序调用,而是由手工启动
C、触发器是由事件来触发、激活从而实现执行的
D、通过createtrigger语句来创建触发器
B、除留余数法是所有哈希函数中最好的
C、直接定址法是所有哈希函数中最好的
D、不存在特别好与坏的哈希函数,要视具体情况而定
B.根据函数是否需要参数,可将函数分为无参函数和有参函数两种。
C.调用有参函数时,调用函数将赋予这些参数实际的值。
D.将函数定义中的参数表称为实在参数表。
A、函数是独立主程序,具有特定功能的一段代码块
B、函数的命名规则和变量名相同
C、函数必须使用return语句
D、函数的调用时直接用函数名,并给形参赋值
B、如果含有三角函数,反三角函数时,其自然定义域为R
C、在实际问题中,函数的定义域则要由问题的实际意义来决定
D、对于自然定义域,当函数含有对数式时,真数必须大于零
B.C 语言程序中的main函数必须放在程序的开始部分
C.函数间可以相互调用,但其他函数不可以调用main函数
D.函数中定义的形参在函数未被调用时并不占用内存
A、BP网络是是一种按误差反向传播算法训练的多层前馈网络。
B、BP算法由数据流的前向计算(正向传播)和误差信号的反向传播两个过程构成。
C、在BP算法中数据流的正向传播时,数据的传播方向是输入层→隐层→输出层。
D、在BP算法中数据的正向传播和误差的反向传播是同时进行的。
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!