字节大模型应用算法凉经

攒人品中,祝大家都能拿到满意的Offer!
项目拷打
八股问题
1. 如何设计一个更好的 Prompt(提示词)?

2. Prompt Engineering 和 Context Engineering 有什么区别?

3. Agent 的记忆类型有哪些?
如果上下文超过模型的最大长度,通常如何解决?

4. 除了 ReAct 模式之外,Agent 还有哪些常见范式?

5. 是否使用过多智能体(Multi-Agent)?

• 如何搭建多智能体系统?

• 常见的多智能体架构有哪些?

6. 最近有哪些比较新的 RAG 框架?
例如 GraphRAG 等。
 手撕代码
LeetCode 1905:统计子岛屿数量
全部评论
来看看淘天吧佬 hc 真的多
点赞 回复 分享
发布于 03-18 14:49 浙江

相关推荐

感谢沉默王二,星球的八股和项目帮助我顺利拿下offer!向牛牛们安利,性价比无敌。面经分享:五面腾讯,实习提前批1.15 pcg一面 非常抽象,全程共享屏幕看我的项目代码,现场进行增加功能,最后idea手写2个线程池,进行通信1.20 pcg二面 也非常抽象,中间共享屏幕,画kafka集群架构,边画边讲解,各个环节出问题怎么应对。 共享屏幕去github看mysql源码,让我讲。聊了特别多人生观,价值观,学习方式等等 最后让我写了一个比较简单的算法题,全程100分钟。提前批1.27一面 同事1.聊聊spring cloud体系2.spring mvc的流程3.分布式锁的实现方式,还有什么其他的实现方式4.直接写过原生lua脚本吗5.秒杀系统,怎么实现的?流量怎么控制的6.kafka兜底这一块怎么实现7.幂等表具体怎么实现的8.kafka发送数据写任务表,是发送前写还是发送后写9.怎么保证消息一定发送成功10.哪里用到了分布式事务11.java线程池,线程池参数12.你项目中哪里用了?怎么设置参数的,依据是什么13.聊聊threadlocal(我结合项目,顺便聊到了inheritablethreadlocal,transmittablethreadlocal)14.threadlocal存在的问题,原因15.spring事务,失效的情况,事务传播16.项目中ai这一块怎么实现的17.ai驱动项目,ai干活18.git这一块,了解吗,常见命令19.tcp和udp20.tcp握手可以是两次吗,四次吗?21.数据库底层结构22.sql比较慢,怎么处理?算法: 最小覆盖子串1.28二面 +11.数据一致性这一块,你怎么处理的?2.缓存失效,有哪些失效策略?3.频繁应用的数据,怎么处理4.分布式事务的实现方式5.多线程的任务,怎么实现线程间的通信?6.分布式锁,技术选型7.Redisson可重入基层怎么实现的?8.分布式锁过程中宕机了怎么办?9.没有超过过期时间,中间CPU没有运行,怎么样提高效率?10.那这个线程恢复后,还能重入吗?11.分享一下你另外一个项目12.ai助手使用了什么框架?算法 实现内存级缓存,要求可以根据时间自动过期后续就是聊性格,生活还有考研等等2.3三面 +2主要是围绕我的动机和实习时长来挖坑,看我怎么应对和对于实习的态度。询问了项目是商业化还是练手项目技术方面:1.ai现在这么火,你怎么去应对的?了解多少2.尝试过ai编程吗,具体怎么做的3.利用ai的时候,团队协作,编码有固定的格式,该怎么办?4.rag召回,有哪些算法?5.脑筋急转弯,3l水 5l水问题6.秒杀逻辑,防止超卖的核心逻辑7.核心业务失败,怎么办?8.加锁了,并发性能怎么保证呢9.商品库存信息,怎么存放的10.支付失败的话,直接更新缓存吗?高并发情况下,会有什么问题呢11.如果是淘宝这种量级,库存出现数据不一致怎么办,怎么恢复数据12.单线程保证线程安全,有哪些方式?13.为什么要用双重检查模式14.为什么学java15.现在ai这么火,但是你的ai经验比较弱,这是为什么?为什么没有主动去补一下2.4hr 电话面hr小姐姐,态度很好,介绍业务,薪资,跟我说拉我进群。电话结束就加了微信,说offer2到3个工作日发下来
如何让HR爱上我:项目都是编的,屏幕共享跟恐怖故事似的
点赞 评论 收藏
分享
多模态模型横向对比除了 Video-LLaMA,还了解哪些主流多模态大模型?→ 常见的有 LLaVA、Flamingo、BLIP、BLIP-2、KOSMOS、PaLI 等简单介绍 ALBEF 和 BLIP 这两个模型的核心设计→ ALBEF:基于图像 - 文本对比学习,搭配动量蒸馏来优化图文对齐效果;BLIP:引入 captioner 生成高质量图文对,再结合 filter 机制筛选优质数据BLIP-2 的整体结构是什么?两阶段训练流程是怎样的?用到了哪些损失函数?→ 结构:在 ViT 和大语言模型之间插入 Q-Former 作为中间桥梁→ Stage1:冻结 ViT 和语言模型,只训练中间的 Q-Former→ Stage2:冻结语言模型,将 Q-Former 与 LM 连接,做指令微调→ 损失:ITC(图文对比损失)+ ITM(图文匹配损失)+ LM 生成损失微调方法(PEFT 全家桶)了解 PEFT 吗?再讲讲 LoRA,重点说明低秩假设的合理性→ PEFT 是参数高效微调的统称,核心是只训练少量参数而不动原模型权重;LoRA 假设模型权重更新量 ΔW 具有低秩特性,将其分解为 A×B,只训练 A、B 两个低秩矩阵,既节省显存又能保留效果除了 LoRA,还有哪些 PEFT 方法?Prefix-tuning 和 P-tuning 有什么区别?→ 其他方法:Adapter Tuning、Prefix-tuning、P-tuning、IA³ 等→ Prefix-tuning:在输入序列前加可学习的 prefix,作用于注意力的 K/V 矩阵,更适合 decoder-only 架构→ P-tuning:用小型网络(如 LSTM)生成连续的 soft prompt,解决离散 prompt 不稳定的问题,更适配 encoder-decoder 模型大模型训练范式你项目中用到的大模型结构是什么?多模态特征是如何喂给大模型的?→ 示例流程:视频帧 → TimeSformer 提取时空特征 → 特征池化 → 线性投影对齐到文本维度 → 拼接到文本 prompt 之前 → 输入 LLM大模型在做了指令微调后,为什么还需要 RLHF?→ 指令微调只是让模型学会遵循指令,但输出可能更偏向 “模板化”;RLHF 是通过人类偏好对齐,让模型输出更符合人类价值观、更自然、更有用的回答,解决 “有用性” 和 “安全性” 问题了解 RLHF 吗?描述它的完整训练流程→ 三阶段流程:① SFT 微调:用高质量指令数据对预训练模型做监督微调,让模型学会基本指令遵循② 训练 Reward Model(RM):用人类标注的偏好数据训练奖励模型,学习给不同模型输出打分③ PPO 优化:用 RM 作为奖励信号,通过 PPO 算法更新策略模型,最大化 RM 给出的奖励,实现与人类偏好对齐手撕 LeetCode 原题:合并 k 个升序链表→ 核心思路:用小根堆维护 k 个链表的当前节点,每次弹出最小值节点并入结果链表,再将该节点的下一个节点入堆,直到所有链表遍历完毕;时间复杂度 O (N log k),N 为总节点数
查看9道真题和解析
点赞 评论 收藏
分享
评论
1
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务