腾讯WXG公众号小程序实习一二面

感谢鹅厂给鼠鼠一个面试机会

但是还是太菜被挂掉了

一面

时间:1h30min

面试官没开摄像头,上来就是四道算法题,给50min时间,能做多少算多少,吓鼠了,也许这就是微信吧

算法题

题一:给定n个正整数,求选出两个数拼接在一起能得到的最大整数

例如:

1、2 拼接得到 21

4、3 拼接得 43

123、4、5 拼接得 5123

题二:合并两个有序链表(Lc21)

题三:字符串解码(Lc394)

题四:最多K次交换相邻数位后得到的最小化整数(Lc1505)

项目

1.聊聊Raft算法,给JRaft社区提的PR主要做了什么

2.Flexible Raft 如果出现网络分区怎么办

3.NWR模型怎么去取舍r和w

4.聊聊CAS,自己开发过程中哪些地方用过CAS

5.讲讲RocketMQ的使用场景

6.实习项目优化了哪些东西

7.学过C或C++吗

8.学校任务怎么办,随时都能来实习吗

反问

1.部门做什么

2.今后从哪些方面提升自己

二面

时间:1h10min

面试官依旧没有开摄像头

算法题

面试官:一面做了哪些算法题?有没有及时回顾?觉得自己算法能力怎样?这次给你比较简单的三道题,限时20min写完。

1.把字符串转换成整数 (atoi)(LCR192) 

2.删除排序链表中的重复元素 II(LC82)

3.二叉树中和为目标值的路径(LCR153) 

项目

面试官问的问题很宽泛,给一个大方向自己说

1.介绍一下实习做了哪些东西

2.实习学到了什么

3.实习有没有超出预期的收获

4.介绍下参加的开源活动,大概流程是什么样的

5.开源活动学到了什么

6.学校在广州?随时都能来实习?

反问

1.总共几轮技术面(每个人情况不一样,有可能2面、3面、4面)

2.部门做什么

3.今后从哪些方面提升自己(注意基础能力,三道题没在规定的时间写完,算法还要加强)

面完四小时后挂。

#实习#
不想面试的哈基米 文章被收录于专栏

记录面试碎片

全部评论
太强了
3 回复 分享
发布于 2024-01-10 12:56 广东
😭😭我居然连问题都看不懂
2 回复 分享
发布于 2024-01-10 13:00 浙江
这也太恐怖了,明天wxg小程序部门日常实习一面,感觉要完蛋
点赞 回复 分享
发布于 2024-05-26 15:27 北京
我滴妈,我搜wxg面经,搜到了21年的面经,发现跟现在的面试难度完全不是一个级别
点赞 回复 分享
发布于 2024-02-18 15:16 江苏
请问算法题是在哪个平台做的呢?
点赞 回复 分享
发布于 2024-02-05 10:51 广东
点赞 回复 分享
发布于 2024-01-10 20:45 江苏
老哥,有时间线吗
点赞 回复 分享
发布于 2024-01-10 18:23 江苏
问这么多东西吗。。恐怖
点赞 回复 分享
发布于 2024-01-10 15:55 北京
有感谢信吗
点赞 回复 分享
发布于 2024-01-10 14:43 浙江
很强
点赞 回复 分享
发布于 2024-01-10 13:46 广东

相关推荐

11-06 05:47
已编辑
Columbia University 算法工程师
最长公共子序列 求序列?中间endpos作用?是否一定包含在最终序列中?(没跑通,时间不够寄了)复盘:没睡醒没想起来该用backtrack来恢复序列,写的方法错了。rand5实现rand10?期望次数?有优化空间吗?(最后一个没答上来)后续复盘:之前我答的rand5(), 若1,3则 += 0, 2,4 += 0,5重骰,这种方式无法优化但对于rand5() * rand5(),若<= 20则直接%,反之重骰,这种方式有优化空间:落在21-25不重骰,直接复用作为另一个rand5Logistic regression?为什么用CE不用MSE?(先说了极大似然估计,追问还有吗,讲了数值稳定性并加上了sigmoid函数后两者梯度的公式推导)二分类指标?解释一下AUROC?实现中怎么做?(acc --> recall, precision, F1 --> AP & AUROC; 写TPR FPR公式 ;离散化,给定若干个threshold,记录点,然后处理成类似柱状图的计算方式)模型训练出现NaN或者loss不下降的情况?简历项目拷打,讲的强化学习介绍一下强化学习的这些策略?DQN -- > PG --> AC --> A2C,没来得及讲PPO,追问Q和V的关系问GRPO的具体reward?(大致按照自己理解讲了一下怎么从PPO来的,核心在同个state做出不同动作多次采样,归一化训练),训练时间与PPO相比?(其实不是太清楚,从策略空间分析了一下,单次epochGRPO更慢,因为多次采样,达到相同效果需要时间更少,因为当策略空间很大时,PPO需要更多采样次数才能达到与GRPO相同的效果,即多次到达同一个state 选择不同action)训练过程除了你讲的多次采样还有区别吗(没答上来)Update: 没想到过了,感谢面试官捞人!
查看11道真题和解析
点赞 评论 收藏
分享
评论
23
69
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务