搜狗 百度求比较

搜狗是手机输入法 给的17*14.7 感觉部门还行,百度校招三面完以后说挂了,给推到系统部面的核心网络研发(尼玛重新面的三面。。。),做的是网络编程跟服务器缓存这块,百度这边过了,具体薪资过两天谈,不过感觉白菜16*14.6,个人还是倾向搜狗的,但是感觉百度的平台更大,不过百度这边部门一般,做的东西感觉以后发展会越来越窄,大佬求给点意见,#百度##搜狗##offer比较#
全部评论
我今年和你一样的~大佬去哪儿了
点赞 回复 分享
发布于 2018-09-25 17:48
最后选择哪里啦、
点赞 回复 分享
发布于 2018-03-24 19:41
系统部,部门一般?如果方向不喜欢就不说了,但是单说部门还是很不错的。
点赞 回复 分享
发布于 2017-12-08 14:32
楼主,东大硕士?我本科也是东大的。
点赞 回复 分享
发布于 2017-12-08 12:42
先pass搜狗。毕竟第四大。。
点赞 回复 分享
发布于 2017-11-30 13:31
核心部门会更好些,但网络这边发展还好,百度这边好点是平台大,我去年跟你遇到的选择超级像,哈哈
点赞 回复 分享
发布于 2017-11-30 12:03
这还用说,来我狼厂就对了
点赞 回复 分享
发布于 2017-11-30 10:00
m
点赞 回复 分享
发布于 2017-11-30 09:56
建议百度,优先选择你喜欢的方向,公司和收入其次
点赞 回复 分享
发布于 2017-11-27 16:18
网络编程怎么可能越来越窄……手机输入法才是吧,除非你做机器学习相关的
点赞 回复 分享
发布于 2017-11-27 15:16
百度 下一个
点赞 回复 分享
发布于 2017-11-27 15:15
百度北京还是深圳啊?
点赞 回复 分享
发布于 2017-11-27 13:07

相关推荐

📍面试公司:腾讯云智💻面试岗位:后台开发❓面试问题:1.nacos三大核心组件2.nacos服务注册的流程3.Nacos的AP跟CP有什么不一样4.Redis分区集群5.Redis分区集群添加新节点数据如何转移6.Redis Sentinel 中的 Raft协议7.如何保证RabbitMQ不弄丢信息8.如何防止消费者重复下单9.WebSocket建立连接的过程10.AOP的底层原理11.如何创建单例的Bean12.如何实现互斥锁13.ArrayList的扩容机制14.java里面线程安全的list有哪些15.HTTP2.0的优点跟缺点16.I/O多路复用的底层结构17.I/O多路复用的中的事件通知模式18.手撕:不加锁的情况下,两个线程按顺序交叉打印1-100的数字。还有什么方式实现?反问:Q:我这次面试过程有那些地方需要改进(其实我感觉已经寄了)A:我不能告诉你我的面评(心已经凉了),然后给了一堆中肯的建议Q:.......忘了,好像是多少天出结果🙌面试感想:这次面试持续了80多分钟,面试官给人的感觉非常沉稳,一看就知道这个人强的可怕,然后开始拷打我的项目,说的并不是很好,在问我锁的粒度后,深挖了许多新东西,然后根据我简历上面的写的技术栈问我八股,都是一些底层的东西。虽然面试过程比较严肃,但是这位面试官给的建议也是非常中肯的,其中有一条是:你简历上面写的技术栈一定要去了解它的底层原理。希望看到我这篇面经的同学能够互勉算上前两次面试,主播也是三面云智了(狗头)今天晚上显示业务复试了,大概这两天有面试。
点赞 评论 收藏
分享
1. 基础概念题:什么是大模型核心加速技术中的 “算子融合”?举例说明其作用。答案要点:算子融合是将多个连续计算算子合并为一个,减少计算图中的节点数和显存读写次数,降低延迟。举例:如将 Transformer 中的 Add(残差连接)与 RMSNorm(归一化)融合,减少两次内存访问,提升推理速度。2. 技术原理题:Flash Attention V2 如何优化注意力计算效率?与 V1 的核心区别是什么?答案要点:• V1:通过分块计算注意力,减少显存占用(避免存储所有中间键值对)。• V2:引入 “内外循环交换策略”,将矩阵乘法的循环顺序调整为更适合 GPU 并行计算的模式,进一步提升计算效率,尤其在长序列场景下加速明显。3. 量化技术中,FP8、INT4 AWQ、INT4-FP8 AWQ 的适用场景和压缩率有何差异?4. RAG 系统中,文档切分粒度如何影响检索和生成效果?实际中如何确定最优粒度?5.在长序列推理场景中,PagedAttention 和 Prefix Caching 分别解决什么问题?如何配合使用?答案要点:• PagedAttention:将 KV Cache 分块存储在非连续显存中,避免显存碎片,支持处理超长序列(如百万 Token);• Prefix Caching:缓存历史对话的 KV 对,跨请求复用,减少重复计算(如多轮对话中复用上文缓存)。配合逻辑:PagedAttention 解决显存限制,Prefix Caching 减少计算量,两者结合可提升长对话场景的效率和稳定性。6. 在企业级推理场景中,如何根据需求选择量化方案?举例说明短文本高并发和长文本场景的优化策略。实时客服系统用 INT4 量化加速响应;金融报告生成场景用 FP8+PagedAttention 处理数千 Token 输入。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务