噩梦结束
永别了春招,再见了,所有的java
懂车帝TimeLine:3.25一面->4.1二面->4.7三面->4.9加面(面试前半小时取消加面)->4.11hr面->4.14oc谈薪->4.17offer
360TimeLine:3.7一面->3.14二面->3.19三面->3.27hr面->4.14oc谈薪->4.17offer
懂车帝TimeLine:3.25一面->4.1二面->4.7三面->4.9加面(面试前半小时取消加面)->4.11hr面->4.14oc谈薪->4.17offer
360TimeLine:3.7一面->3.14二面->3.19三面->3.27hr面->4.14oc谈薪->4.17offer
全部评论
字节✌
再见👋🏻
永别了春招
接好运
Java不太行吗
结束了吗?
接好运
一天两个oc一天两个offer太爽了吧
Uu去哪里了?我也拿到了懂车帝的offer,可以交流一下吗?
懂车帝base重庆吗
佬,360是哪个部门
字节✌️
佬什么bg呀,双9
👻了

大佬
牛的
字节✌️
字节✌️
佬 问问懂车帝每一面通过都是多久约下一面
Java不太行吗
相关推荐
八股战士0offer:虽然但是,你想表达的应该是学习如何agent工程里的提示词工程,而不是训练或者微调模型,这基本上是两个不同的方向。我认为学习agent主要就两个东西:提示词工程和上下文工程。像你说的prompt caching这种优化怎么能想到,建议多读大模型供应商尤其是anthropic的博客,anthropic大概一年前就有很详细的博客讲最佳实践和实现了 
点赞 评论 收藏
分享
