重要提示:请勿将账号共享给其他人使用,违者账号将被封禁!
查看《购买须知》>>>
首页 > 学历类考试
网友您好,请在下方输入框内输入要搜索的题目:
搜题
拍照、语音搜题,请扫码下载APP
扫一扫 下载APP
题目内容 (请给出正确答案)
[单选题]

在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

答案
查看答案
更多“在深度学习中,下列对于sigmoid函数的说法,错误的是()。”相关的问题

第1题

以下哪一项在神经网络中引入了非线性()

A.随机梯度下降

B.卷积

C.Sigmoid激活函数

D.以上都不正确

点击查看答案

第2题

神经网络训练时,常会遇到很多问题,对于梯度消失问题,我们可以通过选择使用以下哪种函数减轻该问题?()

A.tanh函数

B.Relu函数

C.Softleen函数

D.Sigmoid函数

点击查看答案

第3题

在卷积神经网络中,最后一层一般是全连接层,在全连接层中我们使用以下哪个函数作为激活函数?()

A.Softmax函数

B.SoftPlus函数

C.Sigmoid函数

D.Relu函数

点击查看答案

第4题

下列哪一项不是激活函数()

A.batchnormalization

B.sigmoid

C.relu

D.tanh

点击查看答案

第5题

逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用?()

A.LeakyReLU函数

B.tanh函数

C.Sigmoid函数

D.ReLU函数

点击查看答案

第6题

下面关于激活函数的描述中,正确的说法是哪个()?

A.激活函数需要具有线性可微的特点

B.Sigmoid函数的导数是非零的,很容易计算

C.Sigmoid函数的输出值域是对称的

D.ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效

点击查看答案

第7题

激活函数Sigmoid函数单调连续,输出有界,网络比较容易收敛,在一段时间内使用比较广泛,但是当网络比较深时,容易导致什么问题?()

A.梯度减少问题

B.XOR问题

C.梯度消失问题

D.过拟合问题

点击查看答案

第8题

Q77.以下属于激活函数的是()。

A.Adam

B.sigmoid

C.Relu

D.softmax

点击查看答案

第9题

激活函数sigmoid,输入值不能小于0。()
点击查看答案

第10题

常见的核函数主要包括()。

A.多项式核

B.高斯核

C.线性核

D.拉普拉斯核

E.Sigmoid核

点击查看答案

第11题

以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
下载APP
关注公众号
TOP
重置密码
账号:
旧密码:
新密码:
确认密码:
确认修改
购买搜题卡查看答案 购买前请仔细阅读《购买须知》
请选择支付方式
  • 微信支付
  • 支付宝支付
点击支付即表示同意并接受了《服务协议》《购买须知》
立即支付 系统将自动为您注册账号
已付款,但不能查看答案,请点这里登录即可>>>
请使用微信扫码支付(元)

订单号:

遇到问题请联系在线客服

请不要关闭本页面,支付完成后请点击【支付完成】按钮
遇到问题请联系在线客服
恭喜您,购买搜题卡成功 系统为您生成的账号密码如下:
重要提示:请勿将账号共享给其他人使用,违者账号将被封禁。
发送账号到微信 保存账号查看答案
怕账号密码记不住?建议关注微信公众号绑定微信,开通微信扫码登录功能
请用微信扫码测试
优题宝