首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
大模型中的“MOE(Mixture of Experts)”
[问答题]
大模型中的“MOE(Mixture of Experts)”是什么?
添加笔记
求解答(0)
邀请回答
收藏(5)
分享
纠错
1个回答
添加回答
0
梦想是仗剑走天涯
MOE 混合专家架构:在大模型中设置多个子专家模型,通过门控网络根据用户输入选择合适的专家模型进行生成回答。提高大模型的计算效率。
发表于 2025-08-18 21:16:30
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
难度:
1条回答
5收藏
36浏览
热门推荐
相关试题
有以下定义语句 double a,...
Java
评论
(1)
Java 中,有如下字符串数组: ...
Java
评论
(1)
下列代码中,输出正确结果是( ) ...
Java
评论
(1)
没挡住洪水
广度优先搜索(BFS)
评论
(1)
下面关于 Java 中相关集合类的...
Java
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题