网易有道Agent算法校招一面

感觉自己好菜、面试很难,还是要多多练习
1.项目拷打为主
2.全模态的意图理解怎么做的,原理是什么
3.Video信息是怎么用的
4.omni模型是从头训练的吗?用的是什么模型
5.是否有对比过其他的方案,证明你文章方案的卓越性
6.在落地场景中,你的意图识别能否理解讽刺的意图
7.数据标注怎么标的
8.人工数据检验怎么做的
9.详细介绍置信度机制
10.为什么要把流程拆开,不考虑一个大模型直接端到端做
11.手撕:给定两个数组,用连线把相同的数字连起来,但不能相交,问最多能连几条
全部评论
你这个感觉问的不多啊,不过面试后可以好好复盘下
点赞 回复 分享
发布于 03-11 20:24 陕西
项目细节求分享
点赞 回复 分享
发布于 03-04 11:35 北京
借楼,谢谢!!希望对大家有帮助。 帮转-小红书视频剪辑Agent开源项目 帮转-求star FireRed-OpenStoryline 基于本地部署项目,使用起来更丝滑哦 github开源链接: https://github.com/FireRedTeam/FireRed-OpenStoryline/tree/main hugging face网页版体验链接: https://fireredteam-firered-openstoryline.hf.space/ RedTech公众号宣传推文: https://mp.weixin.qq.com/s/tr-SEjZp6fNVS6IrjIbCRg
点赞 回复 分享
发布于 02-12 23:03 江西
看着还行啊,这感觉问的还行
点赞 回复 分享
发布于 02-12 18:46 山东

相关推荐

被横向挂了,希望发出来对大家有帮助!1* 简单概述你简历中的两个项目,包括项目背景以及你的具体分工,是独立完成还是团队协作2* 项目的数据来源是什么?你是如何确定优化目标的?3* 比如数据从 100 条扩充到 1.2 万条,是否全通过自动化生成?生成的样本具体是什么样的?举个例子说明一下生成前后的对比4* 怎么保证自动化生成数据的正确性呢5* 在通过调整参数直到模型回答正确为止的过程中,是否意味着生成的CoT中存在错误逻辑?6* 经过数据清洗后,最终用于SFT的有效数据量是多少?7* 在做微调时,除了 LoRA 是否对比过其他的微调算法8* 你是如何评价微调效果的?测试集的比例是多少?微调前后的准确率分别是多少?原有的模型性能保留了多少?9* LLM常用的结构是什么?10* 说一下Transformer 的整体结构11* 目前主流大模型最常用的位置编码是什么?。12* 写一下多头注意力机制的数学公式。13* 公式中为什么要除以 \sqrt{d_k}?其对梯度消失或梯度爆炸有什么影响?14* 在 Transformer 的 Encoder 和 Decoder 中,哪些部分是可以并行计算的,哪些不可以?15* 除了 LoRA,你还了解哪些微调方法?16* 大模型训练通常使用什么损失函数17* 在机器学习基础中,二分类问题、多分类问题以及回归问题分别使用什么损失函数?18* 你了解哪些优化算法19* 模型训练中出现过拟合的常用解决方案有哪些?20* Dropout 在训练阶段和预测阶段的处理方式是否一致?为什么要这样做?21* 大模型中的“复读机问题重复生成是什么原因导致的?如何从解码策略或训练层面解决?22* 幻觉问题产生的原因是什么?目前常用的工程解决方案有哪些?23* 写出逻辑回归的数学公式。
点赞 评论 收藏
分享
评论
1
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务