华为机器学习工程师面经分享

投递的是华为机器学习工程岗位

一面:
1. 短暂自我介绍环节
2.介绍一下项目
介绍项目中的算法, 用到的软件,网络是自己写的吗 etc
3. tensorflow 和 pytorch 的区别
4. c++ 用没有用过? 指针和引用的区别
5. 线程和进程的区别
6. 现场出题,限时写代码. 要求大概就是能讲清思路, 不需要完全debug成功. 我当时debug完成, 还进一步考虑复杂情况, 面试官就催了一下下.

总结来说, 一面氛围比较轻松, 问的问题也主要围绕着做过的项目,面试官也很nice, 遇到答不上来的问题会说, 没关系,这个确实你没有相关的经验.

二面:
1.短暂的自我介绍
2.因为我说了熟悉tensorflow,就问了问我tensorflow的graph缺点
3. 看我项目里用了GAN, 问了些GAN的知识,项目的主要贡献,遇到了什么问题,算法上的应用与优化,问的相当细节。conditional GAN 和GAN的区别,conditional GAN是针对什么问题提出来的 etc。
4. python装饰器,迭代器,生成器是什么
5. 深度概率编程, 关于VAE的一些问题,自己做的项目有没有什么对VAE算法的更新。VAE和GAN的区别。
6. 现场出题,限时写伪代码.

二面相对来说,问的相对深入细节很多,要求对算法,工具本身有系统性地理解,hmmm就是总共二面前前后后弄了两个小时。
不过面试官依旧nice。当场说二面过了,等待主管面试安排,开心~~. 攒人品~~
#华为##面经##机器学习##秋招#
全部评论
校招吗.,那里可以投
点赞
送花
回复 分享
发布于 2019-12-11 01:45
请问楼主投的华为哪个部门?
点赞
送花
回复 分享
发布于 2020-06-21 10:27
字节跳动
校招火热招聘中
官网直投

相关推荐

预测和分类任务的损失函数为什么不一样?数据分布的差异也是导致预测和分类任务损失函数不一样的原因之一。回归任务面对的是连续变量,其数据分布往往呈现出一定的规律性和连续性;而分类任务处理的是离散的类别标签,数据分布通常是散列的,并且每个类别内部可能并没有明显的先后顺序或大小关系。因此,回归任务更关注于数值预测的精度,而分类任务则更侧重于类别判定的准确性和置信度。这种根本的区别导致了损失函数设计的侧重点不同。NLP领域预训练模型的发展,transformer比word2vec好在哪里?Word2Vec:Word2Vec是一种浅层的神经网络模型,主要包括连续词袋(CBOW)和Skip-gram两种方法。其核心思想是通过给定的上下文来预测当前单词或者通过当前单词预测上下文中的单词。1.这种方法生成的词向量能够捕捉词汇之间的线性关系,但对于更复杂的语义关系则表达能力有限。2.虽然Word2Vec的训练相对较快,但其生成的词向量是静态的,无法根据不同的语境动态调整。Transformer:Transformer则采用了深层的自注意力(Self-Attention)机制,能够同时处理输入序列中所有单词之间的关系。1.这种机制不仅提升了模型对长距离依赖的处理能力,还能捕捉更加丰富的语义信息。2.Transformer模型通过预训练和微调两个阶段,能够有效利用大规模语料库进行训练,并在具体任务上进行精细调整。这使得Transformer在各类NLP任务中都能够获得良好的性能表Layer Normalization的作用是什么?能否用Batch Normalizatioin? Layer Normalization跟数据预处理时初始归一化有什么区别?具体怎么做的?Layer Normalization有助于稳定深层网络的训练,通过对输入的每一层进行标准化处理(使输出均值为0,方差为1),可以加速训练过程并提高模型的稳定性。它通常在自注意力和前馈网络的输出上应用。批归一化是在一个小批量的维度上进行归一化,这意味着它依赖于批次中所有样本的统计信息。因此,BatchNorm的行为会随着批次大小和内容的变化而变化,这在训练和推理时可能导致不一致的表现。在处理变长序列和自注意力结构时,BatchNorm可能不如 LayerNorm 高效,因为变长输入使得批次间的统计信息更加不稳定。BatchNorm在训练时计算当前批次的均值和方差,在推理时使用整个训练集的移动平均统计信息。这种依赖于批次统计信息的特性使得 BatchNorm在小批量或在线学习场景中表现不佳。编程题:平面坐标里有一堆的点,计算一条直线最多能通过多少个点;思路:算两个点确定的直线的斜率和截距,然后判断每条直线是否有相同的斜率和截距;
字节跳动一面371人在聊 查看3道真题和解析
点赞 评论 收藏
分享
3 30 评论
分享
牛客网
牛客企业服务