4399 笔试

这 IDE 是什么鬼啊,不能切页面,不能用本地 idea,第一题 2 树之和要求最优解 map,第二题 吃饭那个 我求他们人数差 然后在求结果 3 个测试用例答案都对就是不知道其他用例是否可以过
第三题 好像是岛屿的面积问题 忘了咋写了
就 tm 给测试用例自己写 太离谱了
全部评论
笔试那么早
2 回复 分享
发布于 2024-08-13 13:22 黑龙江
垃圾公式,题目多,还一些***题
2 回复 分享
发布于 2024-08-12 20:24 陕西
好像题目很多
1 回复 分享
发布于 2024-08-13 13:29 黑龙江
有人题目是宝石合成的吗?题目都没看懂
1 回复 分享
发布于 2024-08-12 21:06 江西
我今天这套题太逆天了,三道编程题的第二道是用opencv实现在视频文件中实时追踪一个人手持手机绿幕的四个顶点的坐标,第三道是用swin transformer对图片/视频做二分类(好像是图片/视频中人物手机上是否为绿幕),还是英文命题,要写完整的管道,太逆天了
1 回复 分享
发布于 2024-08-12 20:52 四川
捞,看我公司,最新动态,开发和算法岗位,在线捞人!
点赞 回复 分享
发布于 2024-08-13 14:55 上海
可以用idea呀,记录也没事群里说了
点赞 回复 分享
发布于 2024-08-13 09:14 广东
这个IDE真的逆天,大概是用过的最烂的IDE了,华子的记事本编程好歹报错信息还挺详细,这个运行错误p都不说问题在哪,代码还没有提交,该不会是人工判题吧😓
点赞 回复 分享
发布于 2024-08-12 23:15 北京
可以切页面,但不能超过三次,笔试群有详细的说明。
点赞 回复 分享
发布于 2024-08-12 22:55 湖北
啊,这编程题只有运行按钮没提交啊,我运行报编译错误感觉是他设置的问题,所以就没提交
点赞 回复 分享
发布于 2024-08-12 22:18 陕西
吃饭那个dining数组应该得先处理一下,[2 3 4 1]这种类型的序列,中间的3 4,从左边过去,最多能过两个人,从右边过去,最多能过1个人,感觉是个反向接雨水。
点赞 回复 分享
发布于 2024-08-12 21:12 陕西
第一题装备,第二题餐厅,第三题岛屿
点赞 回复 分享
发布于 2024-08-12 21:08 广东
那个类名写啥 solution 还是main
点赞 回复 分享
发布于 2024-08-12 21:06 江苏
有摄像头吗
点赞 回复 分享
发布于 2024-08-12 21:04 湖南
我的第一道题是游戏战斗装备计算,第二道题是打家劫舍2,第三题是送外卖的一道
点赞 回复 分享
发布于 2024-08-12 21:03 湖北
代码有提交么,我只看到了运行
点赞 回复 分享
发布于 2024-08-12 21:02 安徽
什么,代码还能提交嘛,我这代码都不能提交运行,笑死
点赞 回复 分享
发布于 2024-08-12 21:01 湖南
笔试题目还不一样啊
点赞 回复 分享
发布于 2024-08-12 20:58 江西

相关推荐

目前主流的 Embedding 模型都是 Bi-Encoder 架构(双塔模型):query 和文档各自独立编码成向量,再算余弦相似度。这种架构的优势是速度快——文档向量可以离线算好存起来,查询时只需要算一次 query 的向量就能跟整个库比对。代价是精度不如 Cross-Encoder,所以才需要两阶段检索。✴️下面是目前开源社区里最常用的几个 Embedding 模型的核心对比:✅BGE-M3(BAAI 智源):目前中文场景的首选。支持中英多语言,最大 8192 token 的上下文窗口,同时支持稠密向量、稀疏向量和 ColBERT 式多向量检索三种模式。在 MTEB 中文榜单上长期稳居前列。如果你不知道选什么,无脑选 BGE-M3 不会错。✅BGE-large-zh(BAAI 智源):专注中文的大尺寸版本,在纯中文场景下精度略高于 M3,但不支持多语言,上下文窗口也只有 512 token。适合纯中文且文档较短的场景。✅GTE-multilingual-base(阿里达摩院):阿里出品的多语言 Embedding 模型,在 MTEB 多语言榜单上表现很强。跟 BGE-M3 是直接竞品关系,两者在多语言场景下各有胜负。如果你面的是阿里,了解 GTE 是基本功。✅E5-small/base/large(微软):微软出品,特点是有从 small 到 large 的完整尺寸梯度,small 版本只有 33M 参数,特别适合资源紧张或需要部署到边缘设备的场景。精度比 BGE 略低,但推理速度快很多。✅Jina Embeddings v2(Jina AI):最大亮点是支持 8K token 的超长上下文。如果你的文档 chunk 特别长(比如整段法律条文或完整的技术文档章节),其他模型可能截断,Jina v2 能全部吃进去。✅MiniLM(微软):极致轻量级,速度最快,适合对延迟要求极高或大批量处理的场景。精度是这几个里最低的,但胜在快。🌟四种经典搭配方案1️⃣经典流水线:BGE-base2️⃣检索 Top 100 → BGE-Reranker-base3️⃣精排多语言场景:GTE-multilingual-base + GTE-multilingual-rerankerGPU4️⃣紧张:E5-small + MiniLM-L6-cross-encoder(batch 推理)5️⃣长文档 / 8K:Jina-embeddings-v2 + Jina-ColBERT-v2,段内匹配更稳📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
3
5
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务