美团核心本地商业一面(cpp选手)

1、面试官首先说美团我们部门都是java,你的全是cpp项目,可以转语言么

2、手撕算法(字符串数组中求出现频率最高的k个字符串)

3、stl有什么优点

4、C++11相较于之前版本在gc上的优化

5、介绍一下智能指针

6、介绍一下你写的其中一个项目和亮点

7、项目细节拷打(项目当中如何处理异常,比如内存达到上限,如何保存当时现场,程序如何处理等)

8、反问

面试体验还是很好的,面试官也会主动引导,加油加油。

#第一次面试#
全部评论
C++ 有gc吗?。。
点赞 回复 分享
发布于 2024-09-10 15:26 湖北
我也是c++,面试官说要java,八股除了java都答了,手撕也写出来了,面完就挂
点赞 回复 分享
发布于 2024-09-09 01:32 天津

相关推荐

现在AI技能是求职的默认必备技能,不管是传统的前后端项目还是现在AI潮流新涌出的AI应用开发工程师、AI Agent工程师以及最顶的AI 算法工程师,笔者为前端岗位,秋招投递了15+互联网大厂,收获3家大厂Offer(快手、京东、拼多多),下面聊聊个人对面试中的AI的一些idea:总结(通过JD总结要学什么)前端基础JS&算法、React&Vue框架、Vite、Monorepo、Pnpm工程化、性能优化、主流(微前端、SSR、大前端)仍为基础,全栈+AI是亮点,前端&AI学习:框架前端开发者不再只是 UI 渲染层,而是要理解大模型、Agent、多模态交互,并能在业务中落地 AI 能力。整体架构可以分为四层:AI基础知识大模型基础核心概念:LLM(大语言模型)、Token、上下文窗口、Embedding、微调(Fine-tuning)、提示工程(Prompt Engineering)。关键能力:文本生成、代码生成、多模态理解(文生图 / 文生视频)、知识问答。前端视角:如何通过 API 调用模型、如何处理流式输出(SSE/WebSocket)、如何优化 Token 消耗。Agent 与 RAGAgent:能自主规划、调用工具、完成复杂任务的 AI 实体(如 Coze 扣子、TRAE)。RAG(检索增强生成):结合私有知识库,让大模型回答更精准、可控。前端视角:如何设计 Agent 交互界面、如何展示 RAG 检索过程、如何做多轮对话管理。多模态 AI核心:文本、图像、音频、视频的融合生成与理解(如剪映的 AI 生成、实时交互)。前端视角:Canvas/WebGL 渲染、WebRTC 实时流、WebGPU 加速、多模态内容预览与编辑。AI工具链应用场景AI IDE 开发(TRAE、Cursor 方向)核心:打造端到端生成真实软件的智能协作平台。前端职责:AI 功能交互实现(代码生成、代码理解、知识问答)、IDE 内核框架开发、插件生态与工具链。技术栈:React/TypeScript、WebAssembly、Monaco Editor、WebSocket/SSE。Agent 平台开发(Coze、HiAgent 方向)核心:新一代 AI Agent 平台,支持协同办公与应用开发。前端职责:LLM 驱动的 AI Agent 框架实现、多 Agent 协同界面、可视化编排工具。技术栈:React/Vue、状态管理、可视化编辑器、实时通信。多模态创作与交互(剪映、抖音方向)核心:生成模型优化、多模态内容合成、实时交互体验提升。前端职责:AI 生成内容预览、实时滤镜 / 特效、多模态编辑界面。技术栈:WebGL/WebGPU、WebRTC、Canvas、性能优化(FPS、内存)。AI + 全栈开发(小红书、美团方向)核心:在 AI Coding 工具协助下完成前后端开发、测试、部署。前端职责:全栈开发、AI 辅助需求分析与方案设计、提升开发效率。技术栈:Node.js/Python、前后端协作、CI/CD、AI 工具深度使用。可视化与 AI 交互(同顺方向)核心:大模型应用的可视化交互、RAG/Agent 工作流演示。前端职责:可视化 Prompt 编排、多轮对话可视化、模型输出调试界面。技术栈:ECharts/D3.js、流程图库、实时数据渲染、响应式设计。工程化与能力要求前端基础扎实的 HTML/CSS/JS/TS,熟悉 React/Vue 等框架。工程化工具:Webpack/Vite、NPM/Yarn、CI/CD、自动化测试。跨端能力:WebAssembly、Electron、Taro 等。AI 工程化模型接入:OpenAI API、火山方舟 SDK、流式输出处理。性能优化:Token 压缩、缓存策略、推理延迟优化、首屏加载。安全合规:数据脱敏、隐私计算、内容审核。软能力拥抱新技术,紧跟 AI 前沿,不设边界。跨团队协作:与算法、后端、产品紧密配合。创新思维:将 AI 技术与前端体验创造性结合。
AI时代下,你的岗位要求...
点赞 评论 收藏
分享
搜推+大模型算法一面面试题SFT & RL 方向先 answer 后 cot vs 先 cot 后 answer:两种 SFT 范式在训练效果上有什么差异?你是否做过对比实验?标注质量管控:如何保证人工标注数据的准确率达到预期标准?有哪些校验或质控手段?Checkpoint 选择:如何挑选合适的 SFT checkpoint,用于后续的 RLHF 阶段?多模态输入:图片是如何输入到 VLM 模型中的?一张图片通常会被编码为多少个 token?RL vs SFT:你认为强化学习(RL)和监督微调(SFT)的核心区别是什么?训练范式选择:为什么不直接从零开始做 RL,而是要采用「SFT → RL」的两阶段流程?RL 关键机制:什么是重要性采样?为什么在 RL 训练中要引入 CLIP 机制?策略类型差异:On-policy 和 Off-policy 算法的核心区别是什么?各自的适用场景有哪些?八股文(Transformer 基础)因果掩码作用:Transformer Decoder 中为什么必须使用自回归因果掩码?缩放点积注意力:为什么注意力分数要除以d​k​?(补充:Layernorm 前置后,除以d​可将方差归一到 1,避免 softmax 梯度饱和)推荐系统方向生成式推荐 vs 传统推荐:两者的核心区别是什么?生成式推荐的目标是什么?你如何看待它的未来发展前景?指标计算:AUC、HR、NDCG 的计算公式分别是什么?GAUC 和 AUC 的区别在哪里?编码方式:如何在模型中加入时间编码和位置编码?常用的位置编码方法有哪些?Coding:手撕 Multi-Head Attention(MHA) 实现二面面试题SFT & CoT 细节概率分布特性:在「先 cot 后 answer」的 SFT 范式下,为什么越靠后的 token 概率(prob)会越高?蒸馏噪声处理:用大模型蒸馏得到的 CoT 数据存在大量噪声,该如何缓解?VLM 幻觉问题:对 VLM 做 SFT 时,发现模型更信任文本信息,看图时反而容易产生幻觉,有哪些解决思路?RL 进阶PPO 核心:写出 PPO 中 GAE 的公式,并说明如何递归计算每个 token 的优势函数(advantage)?DPO 损失:写出 DPO 算法的损失函数公式?算法对比:GRPO 和 PPO 的核心区别是什么?GSPO 和 GRPO 又有哪些不同?训练稳定性:你遇到过 RL 中的熵塌缩(entropy collapse)和 reward hacking 问题吗?分别有哪些改进方法?最近有哪些新论文提出了新方案?采样困境:在采样类 RL 算法中,on-policy rollout 无法得到正确答案时该怎么办?自蒸馏:了解 Self-Distillation 吗?为什么要做自蒸馏?最近这方向有哪些代表性论文?震荡优化:RL 训练中 reward 或 loss 震荡严重,该如何调整?(提示:可从学习率 lr、KL 散度约束等方向入手)推荐系统进阶结构对比:HSTU 和 Transformer 结构的差异是什么?它和 OneRec 的整体流程有什么不同?SID 优化:如何降低 SID 碰撞率,同时提高特征利用率?量化算法:RQ-VAE 和 RQ-Kmeans 的算法原理分别是什么?OneRec 工程:OneRec 中是如何将 SID 加入模型词表和 tokenizer 的?多模态融合:如何更好地结合文本特征和多模态特征?模型演进:Rankmixer 是如何发展到 Tokenmixer 的?Coding:给定一个行内严格递增的 m×n 矩阵,找到矩阵中第 k 大的数
面试官最爱问的 AI 问...
点赞 评论 收藏
分享
评论
2
20
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务