秋招阶段性(8-9月)总结

bg:北航软件学院本硕,简历投递对象以互联网企业为主,岗位第一志愿为机器学习算法岗,第二志愿为数据科学/数据分析。

已意向:京东(base北京,零售,风控算法)
offer评估:百度(base北京,移动应用,风控算法)
三面挂:滴滴提前批
二面挂:滴滴提前批
一面泡:oppo
一面挂:美团、腾讯、饿了么、字节、拼多多、快手、tme、联想、小马智行、商汤
笔试泡:滴滴正式批、小米、小红书、vivo
笔试挂:华为
简历泡:荣耀、完美世界、理想、贝壳、度小满、携程、网易游戏互娱
简历挂:阿里系(淘天、阿里云、高德、蚂蚁)、大疆、蔚来
暑期实习转正失败:腾讯csig腾讯地图

总结:
最跌宕起伏的一集,腾讯很有希望转正(),结果寄了(),同一天京东、百度和oppo捞我开启面试流程(),oppo是个很不错的选择,在深圳,我广东人挺想回深圳的,结果焦虑上火发烧,连推三次oppo的二面,到现在不约我二面了(),发烧前一天完成了京东和百度的三面,退烧当天和后一天完成了京东的四面和五面,最后拿到了京东offer,百度进入offer评估()。
最后想问问牛油们,深圳或者广州还有什么好的企业能投一投的,我还不死心
全部评论
老哥试试深信服,唯品会,元戎启行啥的。
点赞 回复 分享
发布于 2024-10-09 22:35 北京
字节为啥一面挂啊😦,学长,投的哪个部门呢
点赞 回复 分享
发布于 2024-10-01 20:59 北京
滴滴提前批,后端也难得一批
点赞 回复 分享
发布于 2024-09-30 17:15 贵州

相关推荐

✴️回答:简单点我们可以直接说,bert是基于encoder-only的结构,这个结构用来做生成式任务没有现有大基于decodee-only结构的模型好,其次我们可以说bert这种基于掩码的方式来生成文本本来做的就不是自己目标内的事,当生成较长文本时效果肯定烂的一批,然后我们还可以说bert没办法处理变长输入和输出。✅详细解释如下:BERT在生成式任务中存在一些明显的局限性:1.生成连贯性不足:BERT的训练目标是预测单个被掩盖的单词,而不是生成一长段连贯的文本。因此,在生成较长文本时,可能会出现逻辑不连贯、语义跳跃等问题。例如,它可能会生成一些在局部上下文看似合理,但在整体语篇中显得突兀的句子。2.生成长度受限:BERT的输入长度通常受到限制(一般为512个token左右)。这使得它在生成较长文本时会遇到困难,因为它无法有效地处理超出其输入长度限制的内容。相比之下,专门的生成式模型(如GPT)可以生成更长的文本,并且能够更好地保持文本的整体连贯性。3.缺乏明确的生成目标:专门的生成式模型(如GPT)是通过自回归的方式(从左到右或从右到左)来生成文本,其训练目标就是生成连贯的文本。而BERT的训练目标主要是理解文本,生成只是其能力的一种延伸,因此在生成任务上缺乏像生成式模型那样明确的优化目标。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
12
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务