百川智能

收藏
互联网
暂无
未融资
北京市

0

在招职位

13

面试经验

0

真题试卷

上传简历
此刻你想和大家分享什么
职位类型
全部
最新
热门
2024-08-09 17:43
已编辑
门头沟学院 自然语言处理
提前批结束~分享下经验攒人品,正式批继续冲边实习边面试真是战战兢兢,想尽可能少有几家有把握的,四家约面,大厂的人才计划高不可攀没感投1. 百度 小度大模型算法工程师(已oc)一面- 问实习项目- 继续预训练怎么做,词表大小多大,如何扩充词表- dpo训练,如何优化- 拒绝采样出来的数据如何筛选- ppo与dpo细节对比- 质量打分大模型怎么训- 二叉树层序遍历二面- 拷打实习项目细节 1h- 聊天 1h三面- 挑个项目拷打 30min- llm最重要的是什么,对什么最感兴趣- 怎么自动构造数据,筛选- 问了一堆hr问题minimax(已oc)一面- 监督微调有用么,怎么做效果好- 手撕lr二面- 挑个项目讲- 你认为llm哪块最重要,让你当ld你会怎么投人力- 怎么清洗数据,有什么经验- 摘要任务怎么做评估- 手撕概率题三面- 偏聊天科大讯飞飞星计划(已oc)一面- 拷打项目- moe细节- ppo细节- 推理有哪些增强方法- 说说最新的icl技术- rm训练trick,训练时常见问题二面- 大致问了其中两段实习- 想做什么方向- hr问题- 征途整体偏聊天hr面百川星耀计划(一面挂)- 问项目- tot怎么做的,了解哪些变体(面试官态度不很好,此时已经不想说话了)- rm细节 怎么优化- dpo细节,训练有哪些问题- ppo细节,调参经验- 怎么做评估好久没碰到这么不爽的面试了网易伏羲(没动静)oppo(简历挂)蔚来(简历挂)(老东家都不收留了,枉我兢兢业业在贵司实习了半年)
RZ_Q:佬!OC了这么多啊
查看36道真题和解析
点赞 评论 收藏
分享
2024-05-24 10:00
已编辑
南开大学 算法工程师
面试面累了,捂捂,只能说缘分,目前有百川的实习,其他的面不动了高德一面后 流程终止,主要感觉没什么兴趣(但没有笔试直接发的面试...发的测评都还没来得及做),业务聊下来是预测打车用户投诉概率,不知道是不是因为没在截止日期前做人才测评。腾讯广告 一面终止,感觉对技术细节问的比较多, 问了一些很细的特征融合的函数实现,问了特征值和特征向量当时有些忘了答的比较笼统抽象。算法问的比较多的问题:transformer结构,bert结构,大模型微调,项目技术细节。现场编程过:华为:带符号的数字逆转顺序(偏简单)百川智能:全排列回溯算法现场编程勉强过:高德:好像是个查找和排序混合的题,一堆数,怎么找到某个数,返回下标索引什么现场编程挂:快手:第一道动态规划简单的过了,第二题有障碍物的动态规划挂了腾讯 三面编程挂:当时3月份,还没怎么刷题,一些简单的可能都不太熟悉,但居然给我面到3面然后挂了,题目是给多段多个数字的数组,找出其中共同的元素好像,听上去好像很简单,但当时循环写的都不太熟。挂的一些笔试:美团,好像每题的通过率很低,可能有特殊情况没考虑全小红书, 在外边高铁上笔试写一半太晕了身体不适,只过了1题,好像一共有3题淘宝, 感觉好像没过很多,挂了蚂蚁,好像当时刷题太少,没写出来多少腾讯, 5题写了2.5题左右,但流程反复了2次多,不知道有没有算过,一直反复被捞状态感觉代码还是得加强。笔试太菜了枯还面过一些大模型创业公司,还行,就是感觉业务还不太成熟#面经
查看1道真题和解析
点赞 评论 收藏
分享
被拷打了一个半小时, 感觉也寄了。1.自我介绍2. 针对字节的实习,问我 flask 和 go 的 gin 框架的体验和区别(我黑人问号,以为走错了,不记得了,随便说了几句。3.你熟悉 C++,说一下堆和栈的区别4.数据结构中堆栈队列介绍一下。5. 拷打第二份实习大模型的具体内容, 主要还是我介绍。6. 你知道预训练的一些并行方式吗?(说没接触过预训练, 大概讲了一下知道的两种常用并行,就是数据并行和模型并行解释了一下)7.你知道预训练的数据应该怎么预处理吗?(没懂,我说针对质量进行过滤吧?8.换句话说, 如果我不需要对所有的数据都训练,只需要对每一部分有权重的取数据怎么做?(我:最暴力的方法就是每一块都按比重选一定数量再用于训练)你这个是离线方式,我在线想要调试各种方式怎么做?(我:随机数然后映射到对应的数据去随机取?)9.你知道 Llama 用了多少 token 数据训练吗?(我 这真没记)10. 你知道 flask attention 吗?(没用过,不知道原理,只知道这个东西存在。。11.那你知道 flask attention 能有多大的性能提升吗? 不知道12. 你知道最早的 attention 做机器翻译,它的注意力怎么得的吗?(不记得,瞎说一通)13. 这个 attention 和 self attention 的 QKV 怎么来的?(attention 应该是初始化的吧?巴拉巴拉瞎说14. 有了解过最近那些超长文本大模型的预训练吗?(没有了解具体原理,但是应该就是加大数据训练长度, 用外推更好的位置嵌入吧?)15. 你说到外推性,那你了解常见的提高外推能力的方式吗?(主要还是位置编码吧? 给他讲解了一下 ALIBI 这个方式)16 讲一下你对旋转位置编码的理解。17 位置和注意力分数的曲线是什么样子的呢?(一条向上的抛物线,位置越远注意力越小)18. 这个曲线会不会和三角函数一样呢?(我觉得如果是用 Transformer 原本的位置嵌入可能会吧。。。。其他的应该不会?)19 回到我们刚刚说的数据处理, 你能不能用代码实现一下看看?(自己电脑没装 Python  pytorch,就用 Cpp 写,简单写了个逻辑, 随机数有点问题,也跑不通,大概说了一下方式)在写个反转链表反问:
Sherloque:老哥现在开发和大模型岗位投递意向是五五开吗?
点赞 评论 收藏
分享
模拟面试
真实面试体验,快速补齐短板
应聘感受
暂无应聘感受
牛客网
牛客网在线编程
牛客网题解
牛客企业服务