1.自我介绍 2.拷打论文 围绕论文的一些问题 2.1有哪些常见的图卷积 2.2指标 2.3attention是怎么做的 3.拷打另一篇论文 围绕论文的一些问题,延展八股 transformer架构 layer norm和batch norm 区别 自注意力结构 T5架构和任务设计 Bert的最大长度限制 了解哪些attention方式 encoder和decoder区别 4.拷打项目 常见的微调方式 open性问题:你觉得llm和传统的nlp模型的区别在哪? 5.手撕代码:三数之和