终于在六月找到实习了,分享一下经历

前情提要,本人一直拖到五月中下旬才迟迟准备找实习,刚开始没什么都没准备就去投简历,只能放两个之前做着玩的项目,结果就是招聘软件上沟通了一周多都没什么反应。于是听取牛友建议速成了一个涉及技术栈多一点的微服务项目把原来的第一个项目换掉了,重新再去投简历,这次不知道是简历还是运气原因,刚投几天就有三四家约面,其中两家小厂一家初创还有一家忘了。

面了这那两家小厂,一家是golang后端,面试很简单,问了第一个项目还有一些简单的八股,没问算法题,面试前匆忙准备了几个小时就把大部分八股都答上来了。第二家是ios远程实习,接受无经验,笔试做的面试题除了一道选做的代码题剩下全是智力题,只错了一道,二面没问太多东西,也过了。

最终收获两个小厂的offer,准备暑假去,虽然远远比不了身边去中大厂的同学,但是至少是可以进入下一阶段了。

对于后续的规划以及简历的提升牛友们有什么建议吗?面试的时候第二个项目可能是太水了完全没被提及,牛友们建议包装一下还是换成其他项目?
全部评论

相关推荐

✴️回答:简单点我们可以直接说,bert是基于encoder-only的结构,这个结构用来做生成式任务没有现有大基于decodee-only结构的模型好,其次我们可以说bert这种基于掩码的方式来生成文本本来做的就不是自己目标内的事,当生成较长文本时效果肯定烂的一批,然后我们还可以说bert没办法处理变长输入和输出。✅详细解释如下:BERT在生成式任务中存在一些明显的局限性:1.生成连贯性不足:BERT的训练目标是预测单个被掩盖的单词,而不是生成一长段连贯的文本。因此,在生成较长文本时,可能会出现逻辑不连贯、语义跳跃等问题。例如,它可能会生成一些在局部上下文看似合理,但在整体语篇中显得突兀的句子。2.生成长度受限:BERT的输入长度通常受到限制(一般为512个token左右)。这使得它在生成较长文本时会遇到困难,因为它无法有效地处理超出其输入长度限制的内容。相比之下,专门的生成式模型(如GPT)可以生成更长的文本,并且能够更好地保持文本的整体连贯性。3.缺乏明确的生成目标:专门的生成式模型(如GPT)是通过自回归的方式(从左到右或从右到左)来生成文本,其训练目标就是生成连贯的文本。而BERT的训练目标主要是理解文本,生成只是其能力的一种延伸,因此在生成任务上缺乏像生成式模型那样明确的优化目标。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务