网易雷火游戏研发笔试

三小时四道题双机位
在图书馆做的,双机位不好摆放,只能放侧面调整了一下通过系统了。
结果考试的时候监考一直弹消息让我露出上半身,挺搞心态的,实在没办法只能当没看见
还好题目也做不出来
1.无主星渊 2.高伤连招 3.小人闯关 4.界面堆叠
做了1和3,自认为没有问题并且自测点全过但是无法AC
2是有向无环图,4是大小括号以及一大坨规则,不熟,不想做
坐不住了提前交了
题目感觉都挺长的,记不住,可能确实和网易无缘吧,两次糟糕的发挥都是网易
别因为不规范给我拉黑了就行
全部评论
真的逆天,一会让我漏屏幕一会让我漏上半身的,话说佬面试了吗,能问问啥内容吗
1 回复 分享
发布于 04-22 06:09 吉林
双机位简直烦得要死,我一只手撑会下巴都要提醒我把双手露出来
1 回复 分享
发布于 04-13 22:19 北京
第一题有细节,有提到说如果没有被分组就默认一个人一组,第二题dfs
点赞 回复 分享
发布于 04-14 10:17 湖南
人在宿舍,这双机位空间完全不够,一直弹窗,千万别给我拉黑了,心思全在弹窗上面,根本不敢静下心做题(虽然也不会)
点赞 回复 分享
发布于 04-14 09:09 湖北
贴主回忆好评,我已经是写的神志不清了,看了你写的才想起来都是些什么题
点赞 回复 分享
发布于 04-13 16:22 美国
双机位真麻烦
点赞 回复 分享
发布于 04-13 16:21 美国

相关推荐

05-30 01:01
点赞 评论 收藏
分享
✴️回答:简单点我们可以直接说,bert是基于encoder-only的结构,这个结构用来做生成式任务没有现有大基于decodee-only结构的模型好,其次我们可以说bert这种基于掩码的方式来生成文本本来做的就不是自己目标内的事,当生成较长文本时效果肯定烂的一批,然后我们还可以说bert没办法处理变长输入和输出。✅详细解释如下:BERT在生成式任务中存在一些明显的局限性:1.生成连贯性不足:BERT的训练目标是预测单个被掩盖的单词,而不是生成一长段连贯的文本。因此,在生成较长文本时,可能会出现逻辑不连贯、语义跳跃等问题。例如,它可能会生成一些在局部上下文看似合理,但在整体语篇中显得突兀的句子。2.生成长度受限:BERT的输入长度通常受到限制(一般为512个token左右)。这使得它在生成较长文本时会遇到困难,因为它无法有效地处理超出其输入长度限制的内容。相比之下,专门的生成式模型(如GPT)可以生成更长的文本,并且能够更好地保持文本的整体连贯性。3.缺乏明确的生成目标:专门的生成式模型(如GPT)是通过自回归的方式(从左到右或从右到左)来生成文本,其训练目标就是生成连贯的文本。而BERT的训练目标主要是理解文本,生成只是其能力的一种延伸,因此在生成任务上缺乏像生成式模型那样明确的优化目标。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
5
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务