Fire_Hot level
获赞
4
粉丝
1
关注
0
看过 TA
24
门头沟学院
2026
推荐算法
IP属地:深圳
暂未填写个人简介
私信
关注
发一下问题给大家参考,攒攒人品!1、为什么会出现梯度消失或者梯度爆炸?2、LSTM相较RNN又有什么优势?3、介绍你用到的损失函数4、详细解释transformer的整体架构5、transformer为什么要用注意力机制?共有几个注意力机制?为什么用多头注意力机制?6、说一下q、k、v机制以及注意力计算公式,为什么公式中要除以根号dk?7、交叉注意力机制的q、k、v分别来自哪,是编码器还是解码器?8、说一下transformer训练一次都有哪些参数会更新?9、你用的transformer参数量是多大?10、为什么要位置嵌入,使用加法嵌入而不直接拼接?11、说一下transformer为什么要用层归一化而不用批量归一化,他们两个的区别?12、你用过哪些音频处理办法?音频处理流程?用过哪些pytorch的库?13、说出你用过的linux命令14、了解哪些机器学习算法,KNN的neighbor参数的作用?决策树、随机森林是bagging还是boosting?15、分类和逻辑回归的区别?16、用过哪些优化器,训练轮次是多少?17、模型的输入是什么,输出是什么?18、介绍TDNN和ECAPA-TDNN,了解等错误率吗,p、r、f的计算公式?19、对时序数据做过哪些预处理?特征选取是怎么做的?数据量是多少?输出百分比是92%,另外的8%差在哪?20、降维方法有哪些?VAE和普通自编码器的区别?21、了解常用的推荐系统算法吗?22、在你的项目中,用到了transformer的哪些部分,编码器还是解码器,还是全部?23、了解端到端吗,该怎么实现?24、说一下transformer为什么要掩码,三个注意力都有掩码吗?25、了解大模型吗,介绍RAG,说明RAG的作用,说明为什么大模型会出现幻觉?26、声纹识别技术的损失函数是什么,评价指标是什么,做了哪些调参调优工作?27、介绍whisper模型,说明其和transformer架构的不同之处28、介绍语音合成模型VITS29、写transformer的注意力机制部分的代码,会sql吗,写sql、写算法题,问思路30、为什么LSTM有时候会比transform好?transform为什么训练比较慢?31、说一下transform在时序上最新的工作
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务