2023年,开源模型刚刚多起来的时候,上手AI做的最多的事情就是微调,那会儿我有一张3090,就足够微调GLM2-7B或者Llama2-8B的模型了,网上还有很多的教程,教你怎么找数据集、怎么构建数据集,怎么微调大模型。仿佛只要学会了微调,我就一脚踏进了大模型工程师的门槛。包括到现在,很多客户一开始就说:“我们要微调一个自己的模型,网上都这样说的。”然后14B也好,32B也好,拉一堆行业数据往里塞,觉得这样才算构建核心壁垒。但连续了解几个项目之后,我现在的结论很清晰:对大多数做AI应用的团队来说,微调就是个坑。甚至面试的时候也会出现这个问题:为什么不建议微调?到现在网上还有很多新发的教程,一张...