首页
题库
公司真题
专项练习
面试题库
在线编程
面试
面试经验
AI 模拟面试
简历
求职
学习
基础学习课
实战项目课
求职辅导课
专栏&文章
竞赛
搜索
我要招人
发布职位
发布职位、邀约牛人
更多企业解决方案
AI面试、笔试、校招、雇品
HR免费试用AI面试
最新面试提效必备
登录
/
注册
首页 /
BERT
#
BERT
#
1210次浏览
2人互动
收藏话题
分享
此刻你想和大家分享什么
热门
最新
昨天 17:49
上海交通大学 算法工程师
BERT面试高频知识点:3分钟速记
别再死记硬背 BERT 了,面试官更想听你讲明白它为什么有效。我整理一版 BERT 高频答法,3分钟速记:1)BERT 是什么?BERT = Bidirectional Encoder Representations from Transformers,本质是多层 Transformer Encoder 堆叠的预训练语言模型。2)为什么它当年这么强?核心是双向上下文建模。- GPT(早期)主要是单向语言建模- BERT 能同时看左右上下文,更适合理解类任务(分类、匹配、抽取)3)输入怎么构成?输入向量 = Token Embedding + Segment Embedding + Position Embedding- [CLS]:句级表示,常用于分类- [SEP]:句子分隔4)两个预训练任务(面试必问)- MLM(Masked Language Model):随机 mask 15% token 预测原词- 80% -> [MASK]- 10% -> 随机词- 10% -> 保持原词- NSP(Next Sentence Prediction):判断句子B是否是句子A的下一句5)怎么落地到下游任务?预训练后加任务头微调:文本分类、NER、问答等。面试30秒答法:BERT 的关键是双向建模;输入由 token/segment/position 三部分组成;预训练靠 MLM+NSP;下游通过微调完成具体任务。想看的话,我下一条发《BERT vs GPT 面试一分钟对比版》。
点赞
评论
收藏
分享
2023-06-06 14:31
阿里巴巴_算法工程师
深度学习进阶篇[3]:XLNet、BERT、GPT,ELMO
深度学习进阶篇-预训练模型[3]:XLNet、BERT、GPT,ELMO的区别优缺点,模型框架、一些Trick、Transformer Encoder等原理详解 1.XLNet:Generalized Autoregressive Pretraining for Language Understanding 1.1. 从AR和AE模型到XLNet模型 自回归模型(Autoregressive Model, AR),通过估计一串文本序列的生成概率分布进行建模。一般而言,AR模型通过要么从前到后计算文本序列概率,要么从后向前计算文本序列概率,但不论哪种方式的建模,都是单向的。即在预测一个单词的时候...
深度学习入门到进阶
点赞
评论
收藏
分享
玩命加载中
创作者周榜
更多
热议话题
更多
1
...
交出你的校招焚诀
0
2
...
27届求职交流
0
1
...
神州信息求职进展汇总
3
...
实习生至暗时刻
0
4
...
26届求职交流
0
5
...
面试___岗的必刷题单
0
6
...
实习想申请秋招offer,能不能argue薪资
0
7
...
米哈游求职进展汇总
0
8
...
哪些公司开暑期实习了?
0
9
...
你经历过哪些AI幻觉?
0
10
...
春招开局,你有保底offer吗?
0
牛客网
牛客网在线编程
牛客网题解
牛客企业服务