题目内容
(请给出正确答案)
[单选题]
在深度学习中,下列对于sigmoid函数的说法,错误的是()。
A.存在梯度爆炸的问题
B.不是关于原点对称
C.计算exp比较耗时
D.存在梯度消失的问题
答案
查看答案
A.存在梯度爆炸的问题
B.不是关于原点对称
C.计算exp比较耗时
D.存在梯度消失的问题
第2题
A.tanh函数
B.Relu函数
C.Softleen函数
D.Sigmoid函数
第3题
A.Softmax函数
B.SoftPlus函数
C.Sigmoid函数
D.Relu函数
第6题
A.激活函数需要具有线性可微的特点
B.Sigmoid函数的导数是非零的,很容易计算
C.Sigmoid函数的输出值域是对称的
D.ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效
第7题
A.梯度减少问题
B.XOR问题
C.梯度消失问题
D.过拟合问题
第11题
A.ReLU的单侧抑制提供了网络的稀疏表达能力。
B.ReLU在其训练过程中会导致神经元死亡的问题。
C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。