首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
在神经网络中,第一层的激活函数为Relu:f(t) 
[单选题]
在神经网络中,第一层的激活函数为Relu:f(t) = max(0, t),其中t = w*x + b,x为instance输入,w和b为模型参数,如果一个instance在这里的输入值对应t=-1,那么在backpropagate计算参数的梯度时,对于这个instance来说,传过这个激活函数的梯度值为
1
0
-1
2
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(24)
分享
纠错
2个回答
添加回答
2
pein531
instance已经小于0了,relu激活函数在小于0的部分梯度为0
发表于 2020-12-28 18:10:36
回复(0)
1
lovecci
这个激活函数类似ReLU函数,小于0的话梯度为0
发表于 2019-11-25 19:46:50
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
数据分析工程师
数据挖掘工程师
算法工程师
哔哩哔哩
2020
上传者:
小小
难度:
2条回答
24收藏
2144浏览
热门推荐
相关试题
拆礼盒
Java工程师
C++工程师
iOS工程师
安卓工程师
运维工程师
前端工程师
算法工程师
PHP工程师
测试工程师
安全工程师
c#工程师
数据库工程师
大数据开发工程师
vivo
2020
嵌入式工程师
数据挖掘工程师
测试开发工程师
评论
(24)
下列资源加载顺序哪种是不可能的出现的?
Java工程师
C++工程师
iOS工程师
安卓工程师
运维工程师
前端工程师
算法工程师
PHP工程师
测试工程师
安全工程师
c#工程师
数据库工程师
大数据开发工程师
哔哩哔哩
2020
数据分析工程师
数据挖掘工程师
测试开发工程师
评论
(2)
以下哪个数据结构底层是用红黑树实现...
树
Java工程师
C++工程师
哔哩哔哩
2019
评论
(6)
来自
哔哩哔哩2019秋招技术...
属于组合逻辑电路是()。
数字电路
评论
(1)
如果通过这次面试我们单位录用了你,...
岗位认知
自我认知
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题