我作为应届生入行AI的真实求职故事
我叫林,今年22岁,就读于某985高校计算机科学与技术专业,大四上学期。2025年9月,我正式开启了秋招。身边同学有的已经拿到了字节、阿里、华为的SP Offer,我却还在投递“AI算法实习”却连一面都拿不到。那一刻我才真正明白:大学四年,我学了C++、数据结构、操作系统,却几乎没有一个能拿得出手的AI项目。
我的简历只有两页:
- 本科GPA 3.7/4.0
- 两段实习(一段是传统软件开发,一段是数据分析)
- 三个课程项目(图像分类、简单聊天机器人、Kaggle入门赛)
- 几个学生会、志愿者经历
投出去的第一批30份简历,全部石沉大海。
系统自动回复永远是:“您的经历与岗位要求不匹配。”
我把简历发到各大地方求大佬修改,大家的反馈几乎一致:
“项目描述太像课程报告,看不出你真正解决了什么问题。”
“没有量化指标,全是‘参与’‘了解’‘熟悉’。”
“ATS关键词匹配度只有23%,直接被筛掉了。”
我当时真的慌了。秋招只剩最后两个月,我连一个AI相关的面试都没有。
晚上宿舍熄灯后,我躺在床上刷着知乎、脉脉,看着那些“985应届生直通大厂AI岗”的帖子,越看越自卑。
我开始疯狂自学:每天刷CS231n、CS224n、Hugging Face课程,周末泡在Kaggle。
我做了四个项目:
1. 用PyTorch复现ViT,在CIFAR-100上达到87.3%准确率
2. 基于Llama-3-8B微调了一个中文情感分析模型
3. 用LangChain搭建了一个校园问答RAG系统
4. 参加Kaggle一个医疗图像赛,拿到了银牌(前8%)
项目有了,但简历还是那副老样子。
我试着用ChatGPT重写,生成的文案又太模板化,一眼就能看出是AI写的。
我甚至花了299元找了某简历修改机构,改完后投出去还是没反应。
偶遇刷到有人用了一款AI工具,把零散的课程项目拆成了结构化的“价值模块”。
我抱着试一试的心态打开了泡泡小程序里的AiCV简历王。
我把我的原始简历、成绩单、四个项目代码仓库链接、以及想投的5个JD一起上传。
它先自动提取了JD里的高频关键词(PyTorch、Transformer、RAG、量化指标、业务价值、MLOps),然后一条一条问我每个项目的细节:
“你在ViT项目里具体做了什么改进?准确率提升了多少?如果应用到真实场景,能解决什么问题?”
“你微调Llama-3时用了什么技巧?显存怎么优化的?推理速度提升了多少?”
我一边回忆一边回答,它一边帮我重写。
40分钟后,它生成了5个针对不同岗位的优化版本,每版严格1页,ATS通过率检测显示92%以上。
我当时看完眼泪差点掉下来。
原来我的项目可以这样写:
项目一:校园智能问答系统
“基于LangChain + Llama-3-8B + FAISS搭建RAG系统,集成学校教务、图书馆、就业中心三类文档,共计12万字。回答准确率从传统检索的41%提升至89%,平均响应时间从18秒缩短至1.8秒,已在校内测试中服务3000+学生,月均节省人工咨询工时约420小时。”
项目二:医疗图像分类竞赛
“在Kaggle RSNA Breast Cancer Detection赛题中,使用EfficientNet-B7 + Swin Transformer混合架构,结合Test-Time Augmentation和模型集成,最终Public LB 0.912(银牌,前8%)。通过知识蒸馏将模型大小从380MB压缩至87MB,推理速度提升4.7倍,为后续落地移动端筛查提供可行性。”
项目三:中文情感分析微调
“基于Llama-3-8B在10万条中文评论数据集上进行LoRA微调,显存占用从48GB降至11GB,F1分数达到92.6%。部署到公司内部舆情监控系统后,情感识别准确率较baseline提升19个百分点,帮助市场部门提前发现3起潜在危机事件。”
我把这三个项目做成了三个“故事”,准备好在面试时讲。
第一个故事是“从0到1”:
“大三下学期,我发现学校教务系统查询效率很低,学生经常找不到最新政策。我花了两个月从零搭建RAG系统。那天系统第一次在群里回答了100多个问题,我看着聊天记录笑了整整一晚上,因为我知道这能真正帮到和我一样的学弟学妹。”
第二个故事是“跨界解决真实问题”:
“我不是医学背景,但在Kaggle医疗图像赛里,我把Transformer和CNN结合,第一次把算法和真实临床场景联系起来。银牌不是终点,而是我证明自己能把最前沿技术落地到有温度的场景的开始。”
第三个故事是“快速学习与执行力”:
“我用三个月时间把斯坦福两门最难的课程吃透,还把微调后的模型真正部署到生产环境。面试官问我‘你只是本科生,怎么敢碰Llama-3?’我回答:‘因为我不是在学技术,我是在用技术解决我身边的问题。’”
用新简历,我又投了42份。
这一次,13个面试邀约直接飞来,包括腾讯AI Lab、字节跳动豆包团队、商汤、某AI独角兽、以及华为诺亚方舟实验室。
我把三个故事讲得炉火纯青。
第一轮技术面,我不再背八股,而是讲故事。
面试官问“为什么选择AI?”我讲了校园问答系统的故事;
问“项目里最大的挑战是什么?”我讲了医疗图像赛压缩模型的故事;
问“未来想做什么?”我讲了情感分析落地的故事。
最终我拿到了字节跳动豆包大模型团队的算法工程师Offer(SP级别),以及腾讯AI Lab的实习转正Offer。
年薪42万+,远超我当初的预期。
现在我已经入职实习两个月,每天依然在用同样的方法论写周报、做分享、帮师弟师妹改简历。
我把整个应届生入行AI的过程拆成了7个可复制的步骤:
1. 职位画像拆解(把JD关键词全部挖出来)
2. 项目故事提炼(把课程项目变成解决真实问题的故事)
3. 成果公式重写(行动+技术+数据+业务价值)
4. 结构优化(1页倒金字塔,技能放最前)
5. ATS检测(确保关键词自然分布)
6. 多版本生成(针对不同公司微调)
7. 面试故事准备(把每一段经历练成让人记住的故事)
如果你也是应届生,正在为AI秋招/春招焦虑,简历总是被拒,项目总是“课程级别”,欢迎把你的经历拆成故事。
真正拉开差距的,从来不是你学了多少框架,而是你能不能把学到的东西,翻译成招聘方30秒就能看懂的价值。
当你把每一段大学经历都讲成让人记住的故事时,大厂的门就会为你打开。
#投了多少份简历才上岸# #实习如何「偷」产出?# #简历中的项目经历要怎么写# #你的秋招简历被谁挂了?#
我叫林,今年22岁,就读于某985高校计算机科学与技术专业,大四上学期。2025年9月,我正式开启了秋招。身边同学有的已经拿到了字节、阿里、华为的SP Offer,我却还在投递“AI算法实习”却连一面都拿不到。那一刻我才真正明白:大学四年,我学了C++、数据结构、操作系统,却几乎没有一个能拿得出手的AI项目。
我的简历只有两页:
- 本科GPA 3.7/4.0
- 两段实习(一段是传统软件开发,一段是数据分析)
- 三个课程项目(图像分类、简单聊天机器人、Kaggle入门赛)
- 几个学生会、志愿者经历
投出去的第一批30份简历,全部石沉大海。
系统自动回复永远是:“您的经历与岗位要求不匹配。”
我把简历发到各大地方求大佬修改,大家的反馈几乎一致:
“项目描述太像课程报告,看不出你真正解决了什么问题。”
“没有量化指标,全是‘参与’‘了解’‘熟悉’。”
“ATS关键词匹配度只有23%,直接被筛掉了。”
我当时真的慌了。秋招只剩最后两个月,我连一个AI相关的面试都没有。
晚上宿舍熄灯后,我躺在床上刷着知乎、脉脉,看着那些“985应届生直通大厂AI岗”的帖子,越看越自卑。
我开始疯狂自学:每天刷CS231n、CS224n、Hugging Face课程,周末泡在Kaggle。
我做了四个项目:
1. 用PyTorch复现ViT,在CIFAR-100上达到87.3%准确率
2. 基于Llama-3-8B微调了一个中文情感分析模型
3. 用LangChain搭建了一个校园问答RAG系统
4. 参加Kaggle一个医疗图像赛,拿到了银牌(前8%)
项目有了,但简历还是那副老样子。
我试着用ChatGPT重写,生成的文案又太模板化,一眼就能看出是AI写的。
我甚至花了299元找了某简历修改机构,改完后投出去还是没反应。
偶遇刷到有人用了一款AI工具,把零散的课程项目拆成了结构化的“价值模块”。
我抱着试一试的心态打开了泡泡小程序里的AiCV简历王。
我把我的原始简历、成绩单、四个项目代码仓库链接、以及想投的5个JD一起上传。
它先自动提取了JD里的高频关键词(PyTorch、Transformer、RAG、量化指标、业务价值、MLOps),然后一条一条问我每个项目的细节:
“你在ViT项目里具体做了什么改进?准确率提升了多少?如果应用到真实场景,能解决什么问题?”
“你微调Llama-3时用了什么技巧?显存怎么优化的?推理速度提升了多少?”
我一边回忆一边回答,它一边帮我重写。
40分钟后,它生成了5个针对不同岗位的优化版本,每版严格1页,ATS通过率检测显示92%以上。
我当时看完眼泪差点掉下来。
原来我的项目可以这样写:
项目一:校园智能问答系统
“基于LangChain + Llama-3-8B + FAISS搭建RAG系统,集成学校教务、图书馆、就业中心三类文档,共计12万字。回答准确率从传统检索的41%提升至89%,平均响应时间从18秒缩短至1.8秒,已在校内测试中服务3000+学生,月均节省人工咨询工时约420小时。”
项目二:医疗图像分类竞赛
“在Kaggle RSNA Breast Cancer Detection赛题中,使用EfficientNet-B7 + Swin Transformer混合架构,结合Test-Time Augmentation和模型集成,最终Public LB 0.912(银牌,前8%)。通过知识蒸馏将模型大小从380MB压缩至87MB,推理速度提升4.7倍,为后续落地移动端筛查提供可行性。”
项目三:中文情感分析微调
“基于Llama-3-8B在10万条中文评论数据集上进行LoRA微调,显存占用从48GB降至11GB,F1分数达到92.6%。部署到公司内部舆情监控系统后,情感识别准确率较baseline提升19个百分点,帮助市场部门提前发现3起潜在危机事件。”
我把这三个项目做成了三个“故事”,准备好在面试时讲。
第一个故事是“从0到1”:
“大三下学期,我发现学校教务系统查询效率很低,学生经常找不到最新政策。我花了两个月从零搭建RAG系统。那天系统第一次在群里回答了100多个问题,我看着聊天记录笑了整整一晚上,因为我知道这能真正帮到和我一样的学弟学妹。”
第二个故事是“跨界解决真实问题”:
“我不是医学背景,但在Kaggle医疗图像赛里,我把Transformer和CNN结合,第一次把算法和真实临床场景联系起来。银牌不是终点,而是我证明自己能把最前沿技术落地到有温度的场景的开始。”
第三个故事是“快速学习与执行力”:
“我用三个月时间把斯坦福两门最难的课程吃透,还把微调后的模型真正部署到生产环境。面试官问我‘你只是本科生,怎么敢碰Llama-3?’我回答:‘因为我不是在学技术,我是在用技术解决我身边的问题。’”
用新简历,我又投了42份。
这一次,13个面试邀约直接飞来,包括腾讯AI Lab、字节跳动豆包团队、商汤、某AI独角兽、以及华为诺亚方舟实验室。
我把三个故事讲得炉火纯青。
第一轮技术面,我不再背八股,而是讲故事。
面试官问“为什么选择AI?”我讲了校园问答系统的故事;
问“项目里最大的挑战是什么?”我讲了医疗图像赛压缩模型的故事;
问“未来想做什么?”我讲了情感分析落地的故事。
最终我拿到了字节跳动豆包大模型团队的算法工程师Offer(SP级别),以及腾讯AI Lab的实习转正Offer。
年薪42万+,远超我当初的预期。
现在我已经入职实习两个月,每天依然在用同样的方法论写周报、做分享、帮师弟师妹改简历。
我把整个应届生入行AI的过程拆成了7个可复制的步骤:
1. 职位画像拆解(把JD关键词全部挖出来)
2. 项目故事提炼(把课程项目变成解决真实问题的故事)
3. 成果公式重写(行动+技术+数据+业务价值)
4. 结构优化(1页倒金字塔,技能放最前)
5. ATS检测(确保关键词自然分布)
6. 多版本生成(针对不同公司微调)
7. 面试故事准备(把每一段经历练成让人记住的故事)
如果你也是应届生,正在为AI秋招/春招焦虑,简历总是被拒,项目总是“课程级别”,欢迎把你的经历拆成故事。
真正拉开差距的,从来不是你学了多少框架,而是你能不能把学到的东西,翻译成招聘方30秒就能看懂的价值。
当你把每一段大学经历都讲成让人记住的故事时,大厂的门就会为你打开。
#投了多少份简历才上岸# #实习如何「偷」产出?# #简历中的项目经历要怎么写# #你的秋招简历被谁挂了?#
全部评论
相关推荐
昨天 14:36
门头沟学院 前端工程师 点赞 评论 收藏
分享
点赞 评论 收藏
分享