字节测开一面面经

本来是照着算法岗去准备的,面了很多,不管聊得好不好都是一面挂(也可能是我太菜了 自以为聊得好5555555),换了一个赛道做测开。

之前投过算法,所以再投加了一个笔试环节。具体的题忘了 ,除了选择还有两道编程, 蛮简单的 。如果照着开发/算法准备的话问题不大。

一面,面试官很和蔼也很有礼貌, 感觉专业能力很过关,因为后面的问题都是跟着他的思路走的,和某些厂面试的感觉完全不一样。值得一提的是完全没有问测试的八股。
自我介绍
介绍项目,我是做的对话系统,简单介绍了一下,感觉面试官蛮感兴趣的。
tcp三次握手,除了常规的过程、报文结构,还有觉得为什么要用三次,半连接队列、全连接队列,哪些握手能带数据?为什么第一次不可以?什么是syn攻击,举几个例子?这些分别怎么预防。
tcp四次挥手,介绍过程,为什么等待timewait才能断开? 为什么要设置成2msl?
udp,报文结构、优缺点。
说了几个场景,让我判断适合tcp还是udp。
osi七层模型,每层都有哪些常见的协议。
刚才你说到有http协议,http请求连接的过程?和https的区别?你说到ssl,ssl加密过程可以说一下吗?你觉得非对称加密安全吗?数字证书你也有了解吗,介绍一下?
问我会不会数据库,我说不会,然后面试官愣了一下,就没问数据库的东西。
你觉得python高效吗(感觉他是想问静态语言和动态语言)?python的动态内存,介绍一下?
写了两段python代码让我看结果,长度中等,难度中等。顺便问了一下python的深浅拷贝,回答的时候举了例子。
python的字典是怎么实现的?
python的垃圾回收机制可以介绍下吗?你刚刚提到了标记清除,可以说他和引用计数机制比,能解决什么问题?好的,还有别的吗?分代回收,可以解释下他的思想吗?举个例子可以吗?
到这会儿已经马上一个小时了,面试官自己出了一个场景编程,具体是啥忘了,但是写得挺快的,估计比较满意。
反问阶段:我问了一下部门是做什么的,面试官说主要是测试平台的搭建,可能偏开发一些,这也能理解为什么没有问测试八股了。
面试结束,耗时一小时五六分钟



当天晚上七点约的二面。



#字节面试##面经#
全部评论
楼主是哪个部门的呀
1 回复 分享
发布于 2022-05-20 11:22
感谢分享😍
1 回复 分享
发布于 2022-05-20 11:10
楼主您好,可以问问您的准备做了哪些嘛?
点赞 回复 分享
发布于 2023-05-24 14:53 江苏
lz是准备了很多测试相关的八股么
点赞 回复 分享
发布于 2022-08-21 18:02 四川
您是实习还是全职呢?😁
点赞 回复 分享
发布于 2022-06-13 18:09
lz怎么不回复我?耍大牌?😀
点赞 回复 分享
发布于 2022-05-23 10:07
lz还有后续吗
点赞 回复 分享
发布于 2022-05-23 09:58
lz后续还有吗
点赞 回复 分享
发布于 2022-05-23 09:35

相关推荐

翻遍各种大模型的实现,虽然结构上可能保留了 dropout 的实现,但是采样概率都设置为 0 了。唯一一个比较新的,还用 Dropout 的模型是 Meta 训练的 Galactica 模型。那为什么现在不用了呢?核心还是要弄清楚 Dropout 的使用场景。Dropout 之前在深度学习当中是一个特别好用的方法,可以防止过拟合,提高泛化。所以说,当模型较大,数据较少的时候,使用 Dropout 是比较合适的。现在大模型处在什么状态呢?✅预训练在预训练阶段,目前可能还是处于欠拟合的状态。之所以说可能,是基于目前公开的一些论文的出的结论。但是现在闭源的公司在采用大量数据合成的情况下,已经训练足够充分或者接近充分也说不定。以 llama 一系列论文为例,训练 llama 1 的时候,龙猫 Scaling law 里面提到 GPT3 是一个训练很不充分的模型。然后给出的数据配比的建议是,10B 的模型要采用 200B 的 token 来训练。但是 llama 1 采用了 7B 的模型,训练量 1T 的 token 发现性能依然有提升。而且预训练所有的语料一般只过一个 epoch,某些特定的领域可能过 2个 epoch,可以认为样本的重复率很低。所以,在数据足够多,多样性足够而且没有太多重复的情况下,大模型在预训练阶段仍然没有过拟合的风险。也就完全不需要采用 dropout。✅Dropout 就完全不需要了么?如果上面的条件不能满足,Dropout 还是有用武之地的。比如前面提到的 Galactica 模型。这个模型和其他大模型不太一样的地方是训练了 4.25 个 epoch,因为他们认为高质量的数据更重要一些,但是又没有那么多,所以就 repeat 数据了。在论文《To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis》 中,详细列举了数据 Repeat 对训练 LLM 的影响,并且证明了 Dropout 可以缓解数据重复带来的性能损失。在文章《Can LLMs learn from a single example?》中,也提到了在 SFT 的时候,少量的重复数据就会降低模型的性能。这也符合常理,SFT 的数据分布和预训练的通常是不太一样的,重复的数据会让模型拟合新的分布,从而忘掉旧的分布。文中同样也提到 Dropout 可以缓解数据重复带来的影响。所以 Dropout 在数据量较少,多样性不高,需要 repeat 的场景下,依然是一个减少过拟合的很方便的手段。比如现在已经有一些在 LoRA 微调的时候采用 Dropout 的研究了。#算法# #简历中的项目经历要怎么写# #算法岗面试# #互联网大厂招聘# #大模型# #大模型面经#
点赞 评论 收藏
分享
评论
13
67
分享

创作者周榜

更多
牛客网
牛客企业服务