华诺星空笔试

自己的笔试系统,无时间限制,无摄像头,无屏幕共享,30道单选,10道判断,题目比较简单
---更新---没有去线下参加宣讲,所以一直没消息,11月了打电话问我还考虑不,已签约,拒绝了----
1、什么情况下神经网络模型成为深度学习模型:加入更多层,使神经网络深度加深;
2、非线性的引入:relu
3、bn的好处:每一层输入的范围大致相同
4、处理过拟合的手段:dropout、bn、正则化
5、初始化权重:赋予一个初值,然后检查与标签的差值,不断迭代
6、ABC三个稠密矩阵,A<B<C,A(BC)计算效率更高
7、池化可以保留变换的不变形
8、数据量大无法在RAM中同时处理,用SGD
9、选取神经网络深度时需要考虑:神经网络类型、输入数据、计算能力、学习率、映射的输出函数
10、在imagenet上训练一个网络,输入全白图片,那么输出的结果不是所有类别的可能性都一样
11、权重全部初始化为0,可以训练网络,但所有神经元都会识别同样的东西
12、图像识别用卷积神经网络
13、增加神经网络层数不是一定增加训练集/测试集的分类错误率
14、线性的激活函数无法实现同或函数
15、预测下一个单次用循环神经网络
16、语义分割:输入-卷积-反卷积-输出
17、rnn用梯度裁剪处理梯度爆炸
18、非连续目标用SGD优化
19、反向传播计算预测和标签之间的误差
20、batchsize选用2的次方,便于内存最优进行并行计算
21、Xavier初始化:一开始很小,最后也会很小;不是高斯提出的,是Xavier提出的;可以帮助减少梯度弥散的问题
22、GAN的生成器用的局部跨距卷积,鉴别器用的跨距卷积,替换池化
23、通用的逼近器包括:神经网络、多项式、模糊逻辑、支持向量机、径向基函数、核方法、决策树、随机森林
24、深度学习可以解决:蛋白质结构预测、化学反应预测、外来粒子检测
25、1*1卷积可以降低维度;用于特征池;减少过拟合
26、权重不能全部初始为0,偏差可以
27、mlp中输入8个神经元,隐藏层5个神经元,输出1个神经元,那么隐藏输出层和输入隐藏层的权重矩阵分别为1*5和5*8
28、多分类任务用softmax
29、分类激活函数:sigmoid、tanh、relu
30、bn:防止过拟合、防止激活值过高或过低、加速训练
31、增加多层感知机隐藏层层数不一定会使分类误差减小
32、深度学习之前无需完成特征提取
33、提升卷积核大小,不一定提升神经网络性能
34、relu激活函数永远不会饱和
35、循环神经网络不能理解为完全连接、无限长度的普通神经网络
36、一个网络共用一个学习率
37、GRU没有防止RNN梯度消失的作用
38、最大池化不能减少参数
39、sigmoid换relu可以克服梯度消失
全部评论
老哥拿到offer了吗
点赞 回复 分享
发布于 2024-10-19 02:07 湖南

相关推荐

今天 11:53
门头沟学院 Java
点赞 评论 收藏
分享
机械打工仔:不管啥专业,找工作改简历的第一课先把你那排版改了,简历上不要写个人简历四个字,找你要简历的谁不知道这个是简历?而且还占那么多空间,直接把自己名字和基础信息写上面,整体字体大一些。 还有这种经典两页简历一页大空白,导出PDF的时候多了一页几乎全是白的你自己看着不难受吗随手的事为啥不能改掉呢,这是态度问题,你试想一下你是HR你打开简历看到格式都没调整过会是什么感受?你自己都不重视你的简历,HR更不会在意。 然后内容你那个做两年咖啡就别往里写了,简历在精不在多,你在往你的简历里打字的时候就要想好这东西对你要找的工作有没有帮助。自我评价写一行就行了,不如给专业技能单开一栏。核心课程均分90这个真别写了,把你上过的有用的专业课列出来也行。有很多地方废话很多的精炼一下,比如你校内项目第一个写的那些,全然没有重点。 好好修改一下,我看你内容也挺优秀的,别被一个随便做的简历耽误了,我一个同专业的打工人看了都揪心更别说一天看几百份简历的HR
听劝,我这个简历该怎么改...
点赞 评论 收藏
分享
评论
点赞
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务