腾讯WXG-微信搜索 后台开发(实习)

面试官很守约,提前了5分钟就来了
开始没让自我介绍,就说本轮面试只有15分钟,当时我就楞了一下,觉得事情不对。
1. 你做的这个webserver项目主要是做什么用的?
2. Reactor高并发是什么?
3. 什么是IO多路复用?
4. 你用了什么I/O多路复用技术?
5. 你比较熟悉C++吗?
6. 编程题: 请你写一个vector类
期间面试官一直在忙,根本就没想面我,最后时间快到了,面试官催我还剩最后1分钟。
7. 你都看过什么开源项目?
结束。应该是一开始就不想要,所以很着急,比较匆忙。我立马去腾讯招聘官网查看进度,直接挂(这时候很畅快)。

新增
    晚上立马进行了新一轮的简历筛选环节,第二天早上10点收到面试邮件(说明腾讯简历的流动速度还是很快的)。
全部评论
怎么这么夸张哇 我也投了但是没面 听说现在有面的都是面试官捞的 但是让你面又根本不想要你 这究竟是为啥呢 真没想懂
7 回复 分享
发布于 2023-03-09 20:08 广东
经典Webserver
4 回复 分享
发布于 2023-03-10 10:56 四川
加一,这就很气啊,明明今年说的全部实习转正,结果还kpi,我面了1个小时,答的也行,但是感觉面试官一来就跟不感兴趣
3 回复 分享
发布于 2023-03-10 11:02 四川
挂了还可以再投其他岗位吗?
3 回复 分享
发布于 2023-03-10 00:52 广东
太吓人了 我约了明天的微信搜索的面试,看到你这个我有心理准备了
3 回复 分享
发布于 2023-03-09 20:15 北京
npy 以前在腾讯实习那会 也是前两面加起来不到半小时(都是电话面)最后一面一个多小时 然后成功暑期实习去了……
2 回复 分享
发布于 2023-03-10 10:54 北京
同微信搜索,面的感觉还挺好的,一面直接挂,离谱
1 回复 分享
发布于 2023-03-28 11:31 北京
https://www.nowcoder.com/discuss/464450721125085184 阿里巴巴-闲鱼校招开始了哈,还有部门社招岗位,欢迎投简历~~
1 回复 分享
发布于 2023-03-12 17:51 浙江
多投多面长经验哈哈,可以来看看我主页的暑期实习机会
点赞 回复 分享
发布于 2023-03-16 00:19 北京
阿里全球化业务平台24届暑期实习!
点赞 回复 分享
发布于 2023-03-15 23:43 浙江
团队介绍 阿里云消息团队(阿里消息中间件团队),为千万个中小企业提供一站式的消息服务,覆盖业界最主流的消息产品线,包括RocketMQ、Kafka、RabbitMQ、MQTT、EventBridge、MNS。 欢迎加入我们的团队,一起打造稳定、 高效、 开放、低成本的一站式消息服务平台,服务阿里巴巴经济体、阿里云智能企业用户和广大开发者生态,让天下没有难用的MQ。 base地点:杭州、深圳,社招、校招都可以,简历发yubao.fyb@alibaba-inc.com
点赞 回复 分享
发布于 2023-03-12 16:31 浙江
大佬面试约的是星期二吗?
点赞 回复 分享
发布于 2023-03-12 14:11 广东
说实话有点不尊重人
点赞 回复 分享
发布于 2023-03-12 10:00 美国
哈哈,我面了半个小时,不过没过,自己表现太差啦
点赞 回复 分享
发布于 2023-03-10 11:05 山东
同面完就挂
点赞 回复 分享
发布于 2023-03-10 10:57 北京
兄弟微信哪个部门呀
点赞 回复 分享
发布于 2023-03-10 10:52 北京

相关推荐

11-06 05:47
已编辑
Columbia University 算法工程师
最长公共子序列 求序列?中间endpos作用?是否一定包含在最终序列中?(没跑通,时间不够寄了)复盘:没睡醒没想起来该用backtrack来恢复序列,写的方法错了。rand5实现rand10?期望次数?有优化空间吗?(最后一个没答上来)后续复盘:之前我答的rand5(), 若1,3则 += 0, 2,4 += 0,5重骰,这种方式无法优化但对于rand5() * rand5(),若<= 20则直接%,反之重骰,这种方式有优化空间:落在21-25不重骰,直接复用作为另一个rand5Logistic regression?为什么用CE不用MSE?(先说了极大似然估计,追问还有吗,讲了数值稳定性并加上了sigmoid函数后两者梯度的公式推导)二分类指标?解释一下AUROC?实现中怎么做?(acc --> recall, precision, F1 --> AP & AUROC; 写TPR FPR公式 ;离散化,给定若干个threshold,记录点,然后处理成类似柱状图的计算方式)模型训练出现NaN或者loss不下降的情况?简历项目拷打,讲的强化学习介绍一下强化学习的这些策略?DQN -- > PG --> AC --> A2C,没来得及讲PPO,追问Q和V的关系问GRPO的具体reward?(大致按照自己理解讲了一下怎么从PPO来的,核心在同个state做出不同动作多次采样,归一化训练),训练时间与PPO相比?(其实不是太清楚,从策略空间分析了一下,单次epochGRPO更慢,因为多次采样,达到相同效果需要时间更少,因为当策略空间很大时,PPO需要更多采样次数才能达到与GRPO相同的效果,即多次到达同一个state 选择不同action)训练过程除了你讲的多次采样还有区别吗(没答上来)Update: 没想到过了,感谢面试官捞人!
查看11道真题和解析
点赞 评论 收藏
分享
评论
27
86
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务