楼主,请问第四个题螺旋数组的定义是什么
点赞 1

相关推荐

感觉寄了()前后加上自我介绍一共31分钟,感觉完全是没什么兴趣,,当然这和本鼠简历一坨脱不了干系..随缘记一下吧,今年估计没有实习了,明年再整😅开头:自我介绍,没什么可说的,随便问了下提的相关经历,问了下最长实习时间(感觉这一步已经可以埋了)然后问了下项目,说是项目其实本鼠也就只有一个bert微调稍微沾点边,扯了半天才把项目说清楚,然后问了我大致流程,基本上算把bert架构讲了一下,不过现在回想当时确实很急,好多地方讲的很不清楚。问怎么优化,说的是把二次加权kappa系数作为损失函数(但是口误说成卡方系数),然后面试官让讲一下“卡方系数”,吱吱唔唔半天没想起来,只想起来上边,分母忘了。然后问transformer架构,应该答上来了,不过encoder,decoder中间可能口误了,然后问了下这俩分班能做什么,回答是encoder可以像bert这样做一下迁移学习的下游任务,decoder不理解,gpt好像用的这个架构()然后问知不知道lora,不知道问了道题目,但是哥们题目都没听清,稀里糊涂的答了一下,自己感觉都一坨😅 这段也寄最后因为简历太拉没什么可拷打的了,在大概20分钟的时候说抽到题给我做..题:三数之和,本鼠对传统算法题一点没了解,考前看面经看到两个,一个是这个,一个是旋转矩阵,就看教程看了一下,结果真抽到了😚😚感谢前边大佬的面经orz,不过属鼠倒是写出来了,但是!我不知道怎么输入,,和leetcode不一样啊😭写完函数上哪去输入nums啊😅给面试官都整无语了,最后他看了下我的代码让我讲讲过程,问了下时间复杂度就没后续了。最后反问,感觉没什么问的,就结束了用时30min整,面之前跟哥们说他们先开几局lol我随后到,面完兄弟们第一把还没整完😅orz磕了,说不定hr就是话少😋,说不定嘎嘎缺人😏,说不定只有我自己投😍😎😎😭准备了好多都没有问,专门看了一下压根不用的机器学习算法和归一化,优化器这种,结果好像根本没撑到问这块直接被谬啥了😭玉玉等下学期啦😤 #沉淀#拉爆你舍友# 165白皮大学生# #我的实习日记#
查看5道真题和解析 我的实习日记
点赞 评论 收藏
分享
四月中旬之后就没有再投简历,但是到了 5 月反而又有不少被鸽的岗位陆陆续续捞我面试。甚至现在还有不少岗位还在招人,毕竟很多公司尤其是阿里系都是普遍 7 月才去实习的。5 月拒了个钉钉 offer,夸克反复捞起来面了五次还给我挂了。。百度二面在比较中,字节约了三面,快手一面挂了,其他的都懒得面了。感触比较深的是我把这两个月的实习经历写上去后,面试明显顺利很多,所以如果有同学面试没那么顺利,也可以选一个先去,积累一些业务相关的经验还是很有必要的。大概总结一下字节的面试内容,留作日后复习。1. 自我介绍都有2. 项目介绍(基本都是针对最近的实习内容)3. 你认为在上下文越来越长的情况下,Rag 还有必要吗?(和实习相关,有必要,因为目前虽然上下文长,但是对上下文的注意力并不均衡,仍然有很多信息无法被正常利用到,prompt 长度太长影响精度)4. 那你了解现在都怎么提高上下文长度吗?(相对位置编码介绍一些, 还有一些其他的训练数据之类的)5. 介绍一下 transformer 结构,它的位置编码是怎么样的?6. self attention 的 K 和 Q 是干什么用的?(逻辑上来说就是用 Key 和 Query 做配对, 相当于检索,然后计算注意力分数,其实就是检索的配对情况)7. 那如果让 K 和 Q 变成同一个矩阵,你觉得对模型性能影响大吗?(我认为主要是参数量变小了,会有一些影响,如果参数量不变,影响应该不太大? 面试官说:应该是会断崖下降的,就像你刚刚说的是做配对,没有 KQ 配对注意力计算会变差,不只是参数量的问题)8. 了解 RLHF 吗?奖励模型的训练任务是什么?(不了解 RLHF 没接触过。。。)9. 为什么现在都是 only decoder 结构?10. 模型的预训练了解吗?还有一些和实习相关的问题,不太记得了, 集中在数据生产和 rag 策略的一些内容。代码题(两面 4 道)1. 三数之和离 target 最近的结果2. 一个双指针滑动窗口的 mid 题 忘记了3. 二分法实现 sqrt 精度 0.00014. 判断字符串是否是旋转得到的(就是字符串尾部整体移动到头部,判断两个字符串是不是可以自动得到)字节整体还是重代码题,八股难度中规中矩,很久没准备了也不算难,这种应用部门也很看实际的项目
查看14道真题和解析
点赞 评论 收藏
分享
牛客网
牛客企业服务