快手广告大模型面经

一面
1.Bert原理
2.LLM中常用的激活函数有什么
3.Attention有哪几种位置编码有哪几种
4.有个圆的半径是1计算圆内任意一个点到圆心的距离的均值
5.每包干脆面里有一张英雄卡 已知英雄卡共有108种,平均买多少包干脆面可以集齐所有卡
手撕:课程表

二面
1.为什么现在mlp的激活函数都用relu 为什么不用sigmoid/Tanh ?
2.怎么能把序关系学得更好
3.AUC 、回归类AUC 物理含义和计算方式 
4.Loss乘10和学习率乘10之间有什么区别
5.Prenorm和postnorm是什么区别
手撕:最长有效括号

三面
1.如何在加入特征以前就判断特征的加入是否会提效
2.两个重复的特征输入给模型会比只输入一个好么从数学角度具体分析
3.样本类别的不均衡会导致模型学不好少数类样本要怎么去解决呢
4.你的模型最重要的特征是什么 你怎么分析出来的
全部评论
还有推进吗😭
点赞 回复 分享
发布于 11-11 14:13 广东
兄弟你现在进录用评估了吗
点赞 回复 分享
发布于 10-23 16:05 重庆

相关推荐

11-14 14:11
已编辑
武汉大学 Java
我的实习求职记录
点赞 评论 收藏
分享
算法岗越来越卷,还在纠结简历写什么? 拒绝千篇一律的“minist手写数字识别”! 今天盘点 3 个不同技术方向的硬核项目,建议根据自己的赛道,选一个死磕到底!👇1️⃣ 【LLM 应用赛道】—— 紧跟风口  📂 项目:基于 LangChain + RAG 的垂直领域问答助手为什么做: 现在 10 家面试 8 家问大模型。不懂 RAG(检索增强生成)真的很难聊!核心考点: 向量数据库 (Milvus/Faiss)、Prompt Engineering、文档切片策略、甚至 LoRA 微调。一句话亮点: “解决了大模型幻觉问题,实现了基于本地私有数据的精准问答。”2️⃣ 【硬核基建赛道】—— 专治手痒  📂 项目:从零手撸 Transformer (Pytorch复现)为什么做: 别只做“调包侠”!面试问 Multi-head Attention 细节又又又卡壳了?核心考点: Self-Attention 矩阵计算、Positional Encoding 原理、Mask 机制。一句话亮点: “不依赖高级 API,从底层张量运算构建模型,深入理解 Attention 机制。”3️⃣ 【AIGC 视觉赛道】—— 视觉魔法  📂 项目:Stable Diffusion 扩散模型复现与 LoRA 微调为什么做: CV 岗已经从“识别”卷到了“生成”。不要再玩那个YOLO !核心考点: DDPM/DDIM 采样原理、UNet 结构(mile-stone)、CLIP 多模态对齐、ControlNet 控制生成。一句话亮点: “掌握 AIGC 核心流派,具备模型微调与可控图像生成能力。”💡 最后的小建议: 项目在精不在多。 与其罗列 多 个 Demo,不如把其中一个吃透,把遇到的 Corner Case、性能优化、思考过程写进简历里。
一人推荐一个值得做的项目
点赞 评论 收藏
分享
评论
1
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务