科大讯飞大模型算法一面 业务拷打
发点面经攒攒人品~
1.实习拷打
2. 论文拷打
3.有什么涉及的具体的应用吗
4.我看里面上写上面写了一些知识图谱的一个构建说一下这个这个任务的一个输入和输出吧,大概你用到了什么数据,然后什么模型去产出什么样的一个东西
5.你这个图谱里边都有哪些类型的实体?关系是怎么定义的
6.你用了BERT去做实体识别哈,那为啥用BERT呢?能不能直接用个BiLSTM搞定
5.我看你提到了LayerNorm,这块为啥要用个条件LayerNorm有什么作用
6.说一下transformer的底层结构吧
7.Transformer为什么用了LayerNorm呢
8.你说你做了一个Multi-Head Self-Attention,那注意力权重那部分你还记得公式是咋算的吗?
9.说一下LoRA原理
10.刚才提到用LoRA做参数高效微调的必要性,那如果不是用LoRA,而是做全参数微调,那会消耗多少显存,比如说我以一个7B规模的大语言模型为例
11.说说现在千问里有哪些主流的大模型结构
12.项目拷打
13.那你们这个DAG 图是怎么构建的?根因节点怎么推出来的
1.实习拷打
2. 论文拷打
3.有什么涉及的具体的应用吗
4.我看里面上写上面写了一些知识图谱的一个构建说一下这个这个任务的一个输入和输出吧,大概你用到了什么数据,然后什么模型去产出什么样的一个东西
5.你这个图谱里边都有哪些类型的实体?关系是怎么定义的
6.你用了BERT去做实体识别哈,那为啥用BERT呢?能不能直接用个BiLSTM搞定
5.我看你提到了LayerNorm,这块为啥要用个条件LayerNorm有什么作用
6.说一下transformer的底层结构吧
7.Transformer为什么用了LayerNorm呢
8.你说你做了一个Multi-Head Self-Attention,那注意力权重那部分你还记得公式是咋算的吗?
9.说一下LoRA原理
10.刚才提到用LoRA做参数高效微调的必要性,那如果不是用LoRA,而是做全参数微调,那会消耗多少显存,比如说我以一个7B规模的大语言模型为例
11.说说现在千问里有哪些主流的大模型结构
12.项目拷打
13.那你们这个DAG 图是怎么构建的?根因节点怎么推出来的
全部评论
强烈推荐!这个笔记写得很清晰 http://github.com/AccumulateMore/CV
相关推荐
点赞 评论 收藏
分享
点赞 评论 收藏
分享
查看24道真题和解析