1. 实习20min2. 大模型这块有怎样的认知?比如它的底层原理、目前的架构是怎样的?3. 大模型(以 Transformer 为例)跟传统的机器学习有什么差异?4. Transformer 的论文有看过吗?5. 在大模型的预训练、后链路强化训练,以及 prompt、react 等相关环节中,你觉得每个阶段核心攻坚的问题是什么?或者能解决的问题是什么?6. COT 的原理是怎么样的?你了解吗?7. 如果现在要部署一个 64B 的模型,对卡的要求大概是怎么样的?8. 研究生毕业的论文研究方向、实验流程、研究目标、如何对模型做蒸馏9. 你讲一下 Java 线程池的原理吧。10. Java 线程池在处理并发的时候是怎么做的?比如同一时间多个线程往队列里加任务,怎么避免超建最大线程数?11. MySQL 在处理多版本并发(MVCC)时,在 RR(可重复读)和 RC(读已提交)两个隔离级别下面的差异是什么?12. 手撕:一个数组全部都是0和1,每次可以移动一个1到左右的一个位置,最少经过多少次移动可以得到k个连续的113.反问求OC!