基础八股
#AI面试问题分享#"Transformer的注意力机制是怎么工作的,为什么self-attention能捕捉长距离依赖?"——这题看起来简单,但面试官会一直追问,从Q/K/V矩阵问到计算复杂度,再问你和RNN相比优劣在哪,答不深就会被一直挖。还有经典的"过拟合怎么解决",说出Dropout、正则化还不够,面试官会继续问你在实际项目里用过哪个、效果怎么样,纯背答案根本撑不住。
全部评论
相关推荐
04-15 21:36
西安交通大学 Java 点赞 评论 收藏
分享
查看3道真题和解析