给自己定了一个比较明确的学习计划,三月想系统补一轮 AI 相关知识,不再停留在“知道名词”的阶段,而是尽量把核心脉络真正理清。重点会放在这几个部分:先把 Transformer 的整体结构吃透,弄明白注意力机制到底解决了什么问题;然后顺着时间线去看 GPT-1 到 GPT-3 的演进,理解大模型能力为什么会随着参数规模和训练方式变化得这么明显;再继续学 InstructGPT,看看模型是怎么从“会生成”走向“更懂人类指令”的;最后再把 BERT 重新过一遍,对比它和 GPT 这条路线在思路上的差异。