同花顺LLM算法一面

1.自我介绍
2.你做的上下文扩大具体是怎么做的,原理是什么?
3.相关长文本是怎么做几阶段训练的?
4.除了所用的扩展方式, Deepseek 、 Llama 的长文本扩展方案是什么,为什么选择当前方案而非其他?
5.若要将模型训练到1000K的上下文长度,该从哪些方面实现,其中的难点是什么?
6.32B模型训练用到了多少显卡?
7.若将上下文扩展到1000K,该如何估算训练的算力用量?
8.上下文扩展到1000K后,训练时显存会在哪些地方暴涨?
9.用 GRPO 做后训练的过程中,遇到的典型或较难的问题是什么?
10.针对上述问题,训练 Skill 的具体方式是什么?
11.从算法设计角度,该如何解决模型无效调用工具、工具调用参数失败的问题?
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
强烈推荐!这个笔记写得很清晰 http://github.com/AccumulateMore/CV
1 回复 分享
发布于 03-26 16:12 广东
考虑我司不 欢迎联系
点赞 回复 分享
发布于 03-27 00:10 上海

相关推荐

04-08 22:20
门头沟学院 Java
努力拥抱AI中…1.项目拷打2.如果你要控制多个 agent,不论是 cursor、codex 还是别的工具,同时开多个的时候,你觉得会有什么问题存在?3.如果同时开 10 个、20 个,甚至更多 agent,你觉得会有什么问题?4.怎么管理它们?5.当 agent 做任务时,它不一定一次就做完,可能需要你反馈、确认、纠正。如果有十几个 agent,你怎么分配跟它们互动?6.如果要支撑这种场景,技术上应该实现哪些能力?7.你刚刚定义了 waiting、running、done 这些状态,那你觉得怎么去捕获一个 agent 的状态?8.现在像 codex 这种是独立程序,如果它没有 API,你怎么实现对它状态的获取?9.除了 hook,除了 skill 里做打点,还有什么其他方法吗?10.你有没有用过 skill 里面跑脚本这类能力?11.如果检测到 agent 一直没响应,或者卡住了,你会怎么处理?12.那是不是以后人只要对着调度器就好了?只需要做这套编排和管理?13.除了测试、复盘、对外解释结果之外,你觉得以后程序员还应该重点发力在哪些领域?怎么避免和 AI、和偏商务的人直接同质化竞争?14.你觉得有什么方法论,可以让大模型从一个非常庞大的上下文里,很精确地找到它真正需要的数据?15.你刚刚提到 RAG,这种方法在代码库场景里怎么落地?代码是怎么被切成片、变成可检索内容的?16.如果 RAG 找错了怎么办?17.Cursor、Claude Code、Codex 这类工具,面对几百万行代码、窗口又装不下的情况,这个问题怎么办?18.那你知道这些工具大概是怎么实现的吗?19.从原理上看,一种做法是先把用户提示词丢给模型,让模型决策后再搜索代码;另一种做法是先本地检索,再把结果给模型。各自有什么优缺点?
查看18道真题和解析
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务