腾讯微信大模型算法实习一面

1.Transformer 中为什么要用多头注意力?单头注意力有什么局限性?
2.Transformer的并行化讲一讲;为什么要除根号dk
3.LoRA 和全参数微调相比,在推荐场景下各自的优缺点是什么?
4.为什么在推荐系统中引入 RAG?知识库的数据来源和构建流程是怎样的?
5.嵌入模型为什么选 BGE?FAISS 索引是如何构建的?
6.RAG 的 chunk 划分策略是什么?
7.什么场景需要GraphRAG,它的好处是什么?
8.项目中用了LangGraph实现多工具调用链路,相比纯Prompt 有什么优势?
9.当输入超过模型上下文长度时,有哪些主流解决方案?(如滑动窗口、压缩、摘要)
10.手撕:合并区间(LeetCode 56)
全部评论

相关推荐

评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务