机器学习入门(一):神经网络是什么?有哪些?(下)

接着上回讲,这几篇秋招的朋友们可以看看,现在假如面试问到你可以吹吹牛。

机器学习属于计算机或人工智能研究生的必修课,有些学校也开这个课,

不过本科教育大伙懂的都懂,我明确可以说我自己学校教的没我自己教的好,我自己学的比他讲的细致多了,

NLP任务:

这里是重头戏了,已经有transformer架构了能替代RNN了。

Transformer架构:

现在NLP风头最盛,最好用的就算transformer了。

这个东西也是后面出来的,为什么替代RNN,原因是提出了自注意力机制。

然后比RNN快的多(解决了并行计算问题,这也是为什么现在能看到多卡并行计算的原因,10年前根本难以实现。)

这个东西我要讲的细致些,

这个架构是编码器-解码器。

但是里面东西很多,里面有个输入层:负责token转换向量和位置编码(就告诉他在哪里)

自注意力机制(最重要的部分,能把每一个词彼此进行交互)

核心公式:Attention(Q, K, V) = softmax(QK^T / √d_k) V(去问问ai吧,有点难讲明白)

Q (查询):代表现在的词,查询最相关的词

K (键):代表所有词的特征,去比对现在的词。

V (值):代表“所有词”的实际信息内容。

过程就是:用Q和所有K计算相似度得分 -> 用softmax归一化为权重 -> 用权重对所有V进行加权求和,得到当前词的新表示。

多头注意力:

 将多个自注意力层(头)并联起来。 允许模型同时关注不同方面的信息。

就像你用不同的视角(主语、谓语、宾语、定语...)同时分析一个句子,最后把分析结果综合起来,得到更全面的理解。

残差连接与层归一化:

残差连接:在每个子层(自注意力层、前馈网络)周围都有一个跳跃连接,即将子层的输入直接加到其输出上。这能有效缓解梯度消失问题,让模型可以变得非常深。(详细见上期)

层归一化:对样本特征进行标准化(把数据均值为0,方差为1),使训练过程更加稳定和快速。

前馈神经网络:(详细见上期)

线性层与Softmax(解码器输出)

解码器最后的输出会送入一个线性层,将向量投影到整个词表大小的维度。

然后通过Softmax函数,将输出转换为概率分布。概率最高的那个词,就是当前时间步生成的词。(softmax函数详细见上期)

BERT:

这个相当于transformer的青春版,可以说是双向的transformer。

只有编码器部分,实现了双向理解(一个字左右两边都看得到),和下一句预测(这个下一句预测就是GPT/大模型的前身)

GPT:

这个相当于transformer的mini版,可以说是生成式模型,

只有解码器部分,只有解码器所以是单向模型(从左到右),实现了大规模训练和少样本学习。

同时使用sft+奖励模型+强化学习进行训练。

现在的大模型都是这么个流程来的。

生成任务:

GAN(生成对抗网络):

这个文章也算非常重要的。

由生成器和对抗判断器组成,类似造假币和警察,

在极大极小博弈(保证最小化损失做出避免最坏的结果)中让生成器和对抗判断器越来越强。

然后现在大多用于输出图像,大部分的图像生成都能看到GAN的地方。

Diffusion Models(扩散模型):

前向扩散过程(把没有噪声的图像变成纯噪声图像)+反向扩散过程(去掉噪声需要用到模型)。

不断预测原来的部分,直到恢复图像,

这里用了一个VAE(变分自编码器)压缩图像在解码还原,降低了显存和计算的耗能。

同时需要多步骤迭代,虽然效果好但是太慢了。

强化学习:

DQN(深度 Q 网络):

用神经网络来近似Q函数,

Q函数(动作值函数):Q^π(s,a)

从s开始执行a动作,按照π行动保证获得期望累计的回报,而强化学习的最终效果就是拿到最优Q函数。

在DQN中用神经网络格式表示:Q(s,a;θ)≈Q∗(s,a)

PPO(近端策略优化,近来最流行的强化学习算法):

目前属于 Actor-Critic 架构

同时存在裁剪机制保证策略稳定不崩溃,现在常用于机器人领域,量化还有RLHF领域。

#秋招笔面试记录##机械人还在等华为开奖吗?##拼多多工作体验##牛客创作赏金赛#

放一些相关的,这里算是大模型的进阶版了。这个封面是吉米。

全部评论

相关推荐

不愿透露姓名的神秘牛友
2025-12-16 18:54
点赞 评论 收藏
分享
2025-12-13 17:51
门头沟学院 Java
记得22年刚进入大学的时候,连计算机学什么都不知道,无脑跟风选了计算机,当时也没想着能进大厂,甚至连什么是大厂都不知道,后来了解到学校的ACM,感觉学长到处打比赛很厉害,自己也加入了ACM集训队,跟着学长训练,后来半玩半练了一年,发现自己不是那块料,就不打了,不过打ACM也有收获,收获了一个女朋友啊哈哈哈。一开始本人喜欢前端,喜欢那种学到的技术马上就能看到成果的那种感觉,字节做个小页面感觉很有成就感,但是后面看网上都说前端已死,为了找工作选择了java,大二上学期,java之路正式开始。当时跟着老韩学到java基础,后面的javaweb,ssm,springboot,mysql,redis这些都是看的黑马或者尚硅谷的,当时学完这些以为自己无敌了,连项目都没有就去boss投简历,果然一份也投不出去,陷入了深深的自我怀疑。机缘巧合之下下载了牛客,才看到别人的简历上都有两段项目,而且还要背八股,刷力扣啥的,这时才知道了自己跟别人的差距,打破信息壁垒还是太重要了只能说。于是在大二升大三的那个暑假选择了留校,学项目和背八股,终于在开学之前做好了第一版简历,当时选择的项目是黑马点评和谷尚代驾。很幸运在大三上刚开学就获得了第一个小厂java后端的offer,于是奔赴杭州,开始了近50天的实习之后,50天后学校事情太多,就回学校了,然后玩到了过年,过年之后开始准备暑期实习,没想到自己双非本的学历➕一段小厂实习,运气竟然出乎意料的好,在一周的时间里先后收到了百度、字节、腾讯的面试邀请,百度go后端开发oc,字节测开oc,腾讯倒在了2面,不过也还好,在深圳过了也不去哈哈,考虑到个人发展,虽然百度实习钱比字节少,但还是选择了百度,开始了自己的go&java双修之路,6月份左右,在百度弄出来了一个很严重的线上bug(回滚很快,只有组内感知到了啊哈哈),所以很担心影响自己转正,就问了问百度的mt,mt非常实在,跟我聊了聊说今年hc很少,组里可能没有,让我试一下别的机会,于是又开始投简历,在7月的时候同时过了快手和字节的转正实习,感觉杭州更舒服一点加上不想在北京了,租房子太贵,选择了字节,在字节也是无比顺利,mt+ld都是很好的人,很有耐心的教我,7.11入职字节,10.15转正答辩,真好三个月拿下了字节转正,感觉没有比我运气更好的了哈哈啊哈。秋招也没放弃,但是给双非的机会真的很少,也有可能是我之前把运气都用完了哈啊哈,做了一堆测评和笔试,只收到作业帮、腾讯、快手三家的面试邀请,最终作业帮和快手成果oc,腾讯一面挂,但我感觉不是我的问题,应该是kpi,最终选择留在了字节。这一路走来,感觉大部分时候运气都是很好的,每一段时间的都有集中的面试,也都能拿下1-2个offer,不过秋招很焦虑8月底到12月初,只有三个面试,八月九月安慰自己说现在是诸神之战,双非没机会也正在,10-11月安慰自己等到大佬拒绝之后在捡漏,一直到了12月才明白了原来是真没面试啊呜呜,幸好自己有保底不过。对双非来说,等面试的过程远比学习的过程要折磨的多,我们能做的就是尽量把握住每一个机会。
双非有机会进大厂吗
点赞 评论 收藏
分享
评论
2
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务