首页 > 试题广场 >

大模型中的“MOE(Mixture of Experts)”

[问答题]
大模型中的“MOE(Mixture of Experts)”是什么?
MOE 混合专家架构:在大模型中设置多个子专家模型,通过门控网络根据用户输入选择合适的专家模型进行生成回答。提高大模型的计算效率。
发表于 2025-08-18 21:16:30 回复(0)