九章云极面试记录
九章云极面试记录
时间:2025/9/28
时长:20min
岗位:技术支持实习生(AI大模型)
问题大致记录:
自我介绍,介绍了熟悉java技术栈,SpringBoot,MySQL、Redis等。对AI领域感兴趣,学习了微调、RAG、LangChain框架等。介绍两端实习。第一段做java后端开发。第二段用HiAgent做低代码工作流和Agent开发,开发了十多个相关Agent。基于LangChain做了RAG应用等。
问:AI方面的技术怎么学的?看过吴恩达等网课嘛?
答:跟着GitHub上的有些开源教程项目学的,还有一些AI框架的官方文档,跑里面的代码,然后自己做相关应用,我的GitHub里可以看到。没有看过相关网课。
问:介绍下chat-嬛嬛这个微调项目怎么做的?
答:首先是准备数据集,每条数据包括System prompt,query和answer。准备这样的一套数据集用于LoRA微调训练。接着是从HuggingFace上拉取原始的Llama3-8B模型,用于微调。然后配置LoRA微调的参数。将模型,数据集,LoRA参数一并放到trainer里进行微调训练。训练好后,和微调模型进行对话,得到的回答是甄嬛风格的。
问:这个微调项目是自己独立做的嘛?
答:数据集是找同学一起做的,因为数据条数比较多。然后是参考了网上孙悟空的微调项目做的。
问:训练用的什么GPU?还用过哪些GPU?
答:基于谷歌的Colab平台,订阅了会员,里面提供了包括T4,A100等GPU。不过还没有训练过更大的模型。
接着面试官介绍了公司具备的GPU有什么。
问:讲讲RAG的流程?
答:包括对文档进行分片,用嵌入模型将分片转换为向量,存储到向量数据库,我用的是chroma库。然后配置检索器。可以通过chain链配置,或者通过agent将检索器作为工具调用。然后提问时,先从向量库检索相关分片,将分片内容和提问一起发给大模型来生成答案。优化上,为了提高精度,可以采取使用重排序器的方式,比如从向量库检索100个分片,然后用重排序器找出最匹配的10个分片,从而提高检索精确度。
问:平时关注什么技术账号嘛?(忘了原话咋问的了)
答:B站一些推荐GitHub新项目的账号,鱼皮,黑马等。以及腾讯,阿里的微信技术公众号等。
问:有什么兴趣爱好?
答:喜欢拼高达模型,追星喜欢斋藤飞鸟。
问:有升学打算嘛?
答:没有,打算直接就业。
反问:
实习业务做什么?
1、TOC工作,面向消费者。没记清怎么说的。好像是平台日活二三十人,平常技术支持工作量不大。未来可能转型到贴近学习和科研的场景。
2、完成技术支持工作下,有意愿也可以去和开发员工一起做些工作。
3、基于ai方向课题的场景,实现一些github上的项目。
1和3是业务工作,2是能提供的机会。
实习薪资是否够吃住费用?
要和hr聊。
有转正嘛?
当前这个岗位缺人做。后续有机会转正。