关于荣耀状态码

#荣耀求职进展汇总# 想问一下大家荣耀二面结束后,状态码变成100437的同时,首页的流程状态会变嘛? 
我面过三天了,但首页一直是<面试流程中>
——————————————
9.26更新 目前后台状态码是18了,首页的状态也变了
——————————————
10.27更新 终于oc 但是已经签了其他家😂
全部评论
en,cn都变才会官网显示录用决策吧
1 回复 分享
发布于 2023-09-24 13:40 广东
100437是什么意思?
1 回复 分享
发布于 2023-09-24 12:45 广东
我20号面的,代码437,西安射频,首页未变。南京软开相关代码好像都变成18了。
1 回复 分享
发布于 2023-09-23 19:52 四川
同一天面试,还没变,不知道是不是寄了。
点赞 回复 分享
发布于 2023-09-24 11:03 陕西
100437不会变,18会变
点赞 回复 分享
发布于 2023-09-23 21:42 江苏
22面的首页还没变
点赞 回复 分享
发布于 2023-09-23 20:29 广东

相关推荐

目前主流的&nbsp;Embedding&nbsp;模型都是&nbsp;Bi-Encoder&nbsp;架构(双塔模型):query&nbsp;和文档各自独立编码成向量,再算余弦相似度。这种架构的优势是速度快——文档向量可以离线算好存起来,查询时只需要算一次&nbsp;query&nbsp;的向量就能跟整个库比对。代价是精度不如&nbsp;Cross-Encoder,所以才需要两阶段检索。✴️下面是目前开源社区里最常用的几个&nbsp;Embedding&nbsp;模型的核心对比:✅BGE-M3(BAAI&nbsp;智源):目前中文场景的首选。支持中英多语言,最大&nbsp;8192&nbsp;token&nbsp;的上下文窗口,同时支持稠密向量、稀疏向量和&nbsp;ColBERT&nbsp;式多向量检索三种模式。在&nbsp;MTEB&nbsp;中文榜单上长期稳居前列。如果你不知道选什么,无脑选&nbsp;BGE-M3&nbsp;不会错。✅BGE-large-zh(BAAI&nbsp;智源):专注中文的大尺寸版本,在纯中文场景下精度略高于&nbsp;M3,但不支持多语言,上下文窗口也只有&nbsp;512&nbsp;token。适合纯中文且文档较短的场景。✅GTE-multilingual-base(阿里达摩院):阿里出品的多语言&nbsp;Embedding&nbsp;模型,在&nbsp;MTEB&nbsp;多语言榜单上表现很强。跟&nbsp;BGE-M3&nbsp;是直接竞品关系,两者在多语言场景下各有胜负。如果你面的是阿里,了解&nbsp;GTE&nbsp;是基本功。✅E5-small/base/large(微软):微软出品,特点是有从&nbsp;small&nbsp;到&nbsp;large&nbsp;的完整尺寸梯度,small&nbsp;版本只有&nbsp;33M&nbsp;参数,特别适合资源紧张或需要部署到边缘设备的场景。精度比&nbsp;BGE&nbsp;略低,但推理速度快很多。✅Jina&nbsp;Embeddings&nbsp;v2(Jina&nbsp;AI):最大亮点是支持&nbsp;8K&nbsp;token&nbsp;的超长上下文。如果你的文档&nbsp;chunk&nbsp;特别长(比如整段法律条文或完整的技术文档章节),其他模型可能截断,Jina&nbsp;v2&nbsp;能全部吃进去。✅MiniLM(微软):极致轻量级,速度最快,适合对延迟要求极高或大批量处理的场景。精度是这几个里最低的,但胜在快。🌟四种经典搭配方案1️⃣经典流水线:BGE-base2️⃣检索&nbsp;Top&nbsp;100&nbsp;→&nbsp;BGE-Reranker-base3️⃣精排多语言场景:GTE-multilingual-base&nbsp;+&nbsp;GTE-multilingual-rerankerGPU4️⃣紧张:E5-small&nbsp;+&nbsp;MiniLM-L6-cross-encoder(batch&nbsp;推理)5️⃣长文档&nbsp;/&nbsp;8K:Jina-embeddings-v2&nbsp;+&nbsp;Jina-ColBERT-v2,段内匹配更稳📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看8道真题和解析
点赞 评论 收藏
分享
评论
1
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务