5.14 阿里一面面经

从上一个帖子之后面了大概七八次大厂公司,基本都做了总结,现在发一下面经,但是基本都一面挂......搞不懂问题也答了,手撕也过了为什么全都一面挂。。。

疑似KPI面,无手撕,聊项目,聊八股
1.自我介绍
2.你认为前端和交互相关的技术有哪些?
3.event loop
4.promise
5.你的研发过程中有没有使用过一些技术,通过event loop实现的技术
6.宏任务、微任务这种情况在实际开发中你认为有哪些应用场景
7.手写一个Promise.then的话,是怎么具体实现的
8.手写这个Promise的话是怎么去实现这个同步任务、异步任务、宏任务、微任务的这个执行顺序的
9.Promise会创建宏任务吗,Promise的宏任务是在什么时间点创建的?
10.聊聊页面鉴权
11.Token放在请求头的哪一个具体位置
12.Token存储在LocalStorage里面会不会有安全问题?别人使用越权登陆怎么办?
13.大部分的网站的登录信息,你认为是存在localStorage里还是存在Cookie里面
14.你们现在为什么做项目都喜欢把Token存在LocalStorage里面,是有什么开源项目或者是看到什么推荐这样存储的吗
15.防抖和节流具体做了一个什么事情
16.如果我做了两次请求,第一次因为服务器卡顿返回的特别慢,第二次请求很快返回,结果第一次请求覆盖了第二次请求,该怎么办?
17.介绍一下虚拟滚动
18.你如果是按需渲染的,那么你的列表总高度理论上是不知道的,你怎么去知道这个列表的总高度是多少?
19.虚拟滚动的时候如果滚动比较快,可能会出现白屏,实时渲染可能会出现抖动,有什么方案可以去解决?
20.最近大模型比较火,你对AI或大模型有什么理解呢?你会使用大模型在具体实际生活中去做些什么
21.你是怎么学习的?
22.你看过哪些开源项目呢
反问:
1.面试流程
2.公司base 杭州
3.项目业务

基本都答上来了,两个不是很确定的问题也一口气说了一大堆,面试官全程笑呵呵,但是有反馈,不抱希望,感觉会凉。

#面经#
全部评论

相关推荐

给我面没招了,感觉自己好菜、面试很难,还是要多多练习1.项目拷打2.你在去部署或者训练预训练或者后训练的模型时,有没有用过一些比较底层的一些训练的调试的工具,比如说千卡的话很容易就会出NCCL timeout,如果出现 NCCL timeout,一般怎么定位和解决?3.像那种rl里面的那个MOE之类的那种的优化有去做过吗4.看您的训练经验比较丰富,而且您上线运行的推理内容之前也进行过一些什么样的优化吗?5.有没有做过 kernel级别的优化?比如用 CUTE DSL或者手写 CUDA去做 fusion这类算子融合优化,介绍一下6像底层,如果你们在做.kernel fusion,倾向于用什么方式来做7.有没有哪次你做了 fusion 结果性能反而下降的?原因是什么8.平时写 CUDA的时候,有没有关注到底层实现细节?比如你刚提到 FA2,那再往下一层,像 Hopper架构里那个 warp specialization是什么,它底层大概是怎么实现的9.试过用 Agent去生成cuda内核么,怎么去做的10.如果我把 warp specialization 去掉,只保留 tile 和 shared memory 优化,大概会损失在哪?11.怎么么判断一个 MoE 模型是真的学到了分工,而不是只是把 dense模型拆开了12.在 RL + MoE 里,有没有遇到过 reward把 routing学坏的情况?就是模型为了拿 reward,全都走某几个 expert,这种情况你当时是怎么处理的
查看11道真题和解析
点赞 评论 收藏
分享
评论
6
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务