【ai产品】导论4:垂直大模型+agent

垂直大模型其实在最早期chatgpt提出的时候,这一点就已经提出来了,据说当时华为的盘古大模型就是做这个的,当时主要是用大模型+微调来做,随着这几年的发展,在医疗健康、金融科技、教育、智慧城市,最热的几个方向,已经出现了部分应用,如aq、智能问诊、疾病早筛、ai金融风险防控、数字人引导操作、智能客服、数字人+教育、ai营销文案生成等等,但是在我看来这仍然处于ai的早期阶段,如果仅仅这些应用,那我们对ai的想象力是不是太差了些,我认为ai以后应该融入社会各处,成为一种基础设施,出现一种新的交互终端,我们的gdp真的有被ai提高,那这个未来才有意思。

对于agent而言,我个人觉得其实是最有想象力的部分,mfp协议就像给ai插上了翅膀,工作流就像带来了风,在我看来扣子、dify这种是未来人机结合的未来。另外有人提到的agent是人类下达任务,agent主动调用工具,认为这才是未来,但我觉得这种纯纯放手给ai,且不说技术上的可行性,人类在传达任务是天然就存在信息的损失,所以这种方式绝对不是未来的发展方向。
全部评论
捉个虫,楼主想说的应该是MCP协议,不是MFP协议吧
1 回复 分享
发布于 07-30 11:13 广东

相关推荐

常见的业务题架构理解篇Q1 Transformer模型主要由哪两部分组成?Q2 自注意力机制中的Q、K、V矩阵是什么缩写?Q3 多头注意力中"头"(head)指的是什么?Q4 位置编码的作用是什么?Q5 Encoder和Decoder结构的主要区别?Q6 为什么要使用残差连接(Residual Connection)?基础组件篇Q7 前馈神经网络(FFN)有多少层?Q8 Layer Normalization放在哪个位置?Q9 激活函数ReLU和GeLU的主要区别?Q10 词嵌入(Word Embedding)的维度代表什么?Q11 注意力掩码(Attention Mask)的作用是什么?Q12 为什么要使用dropout技术?训练基础篇Q13 预训练(Pre-training)的目标是什么?Q14 什么是语言模型中的"自回归生成"?Q15 数据并行的基本实现方式?Q16 什么是训练中的批量大小(Batch Size)?Q17 学习率(Learning Rate)过大会导致什么问题?Q18 训练损失(Training Loss)下降说明什么?模型应用篇Q19 什么是文本生成中的贪心解码(Greedy Decoding)?Q20 温度参数(Temperature)如何影响生成结果?Q21 模型推理时为什么要限制生成长度?基础概念篇Q25 参数量(Parameters)和计算量(FLOPs)的区别?Q26 什么是生成式AI(Generative AI)?Q27 预训练模型和传统NLP模型的核心区别?Q28 为什么大模型需要海量训练数据?Q29 什么是过拟合(Overfitting)现象?Q30 模型推理(Inference)是指什么过程?工程实践篇Q31 GPU显存不足时常见的解决方法?Q32 模型权重文件(Checkpoint)包含哪些内容?评估基础篇Q37 如何评估语言模型的生成质量?Q38 困惑度(Perplexity)指标的计算原理?
点赞 评论 收藏
分享
评论
1
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务