今年应届大模型算法年包一个比一个高,某书某节应届生开七八十万的好像一抓一大把,但是一看JD:有大模型预训练经验,有万卡集群调度经验,发表顶会论文对于我们这种没有大厂实习,没进强组的小卡拉米来说,基本上都是不可能满足的条件。 所以,没显卡的穷孩子真的不能靠大模型算法翻身吗? 关于这个问题,实际上也要看“大模型”的几个具体方向(虽然都叫大模型算法or大模型应用),按照对硬件资源需求的程度从低到高排序大概是这样: Prompt工程 ≈ Agent 开发 < RAG < LoRA等高效微调 < 全参数后训练(微调) < 预训练 这么看其实很明了了,那些对资源要求极高的JD,...