tts ai后端实习生一面

1. 介绍实习,我这边实习做的是web3和ai,跟他讲了好久业务背景。主要围绕工作量证明以及如何结算代币和激励
2. 介绍transformer的架构,qkv的作用,注意力机制
3. 大模型推理的两个阶段?没太get到
4. vllm:kv cache对于业务的优化,page attention稍微提了一嘴
5. spring:ioc和aop的理解,aop什么时候失效。两种动态代理模式详细说说
6. redis:五种数据结构底层原理,跳表和红黑树的对比,跳表什么时候退化,跳表最后会退化成什么样,红黑树什么时候退化,最后会变成二叉平衡树吗
7. innodb为什么用b+树,与前面两个比较
8. kafka的结构有什么,生产者消费者数量设置探讨,如何指定到某个partition
9. agent相关:说说mcp,function calling,ReAct以及一些常见的设计范式,比如Plan & Exec
10. 算法:无重复字符的最长字串
11. 追问业务的时候还在问算法相关内容,说说stable diffusion和vit,视觉怎么样被大模型处理的

误闯天家了,算法内容仅限了解过一点,广度深度都很一般。
全部评论

相关推荐

在公司实习,最怕的就是正对着电脑分析业务呢,手机突然震动,屏幕上赫然跳出一个异地的陌生座机号。那一刻,你觉得全办公室的耳朵都竖起来了,连敲键盘的声音都小了几分。我的核心策略只有八个字:波澜不惊,化骨绵掌。首先,给所有招聘软件的联系人设个“暗号”。 别直接存“XX公司HR”,万一手机放桌上被同事瞄见,你直接当场“社会性死亡”。我会统一存成“快递小哥”或者“外卖补差价”。这样电话打进来,你接起来第一句就能顺理成章地说:“喂,师傅?啊,放驿站就行,我这开会呢。”其次,面对那种躲不掉的电话,学会“自导自演”。如果HR开口就是“请问是XX吗,现在方便面试吗?”,你千万别压低声音在那儿说“不方便,晚点”。你要表现得像是在聊公事,大声且自然地回一句:“噢,那个需求的数据还没跑完,我等会儿下楼去会议室给你回个电话同步一下,好吗?”然后挂掉电话,淡定地拿上水杯或笔记本,快步走向防火梯或无人的茶水间。我的“特工时间表”一般是这样划线的:上午 10:00 - 11:30: 简历投递高峰期,手机必须静音反扣,但要时刻盯着智能手表的振动。中午 12:30 - 13:30: 这是回电和约面的“黄金窗口”。我会利用这段时间主动给漏接的HR回过去,把面试时间尽可能锁死在下班后或者周六。下午 15:00 - 17:00: 此时最危险,因为HR也刚午睡醒。这时候如果电话响了,统一走“会议室同步需求”的借口。其实大家都明白,实习生“骑驴找马”是职场常态,但这种事儿就像潜规则,只要你不挑明,大家就互相演戏。
如何一边实习一边找下家?
点赞 评论 收藏
分享
多模态模型横向对比除了 Video-LLaMA,还了解哪些主流多模态大模型?→ 常见的有 LLaVA、Flamingo、BLIP、BLIP-2、KOSMOS、PaLI 等简单介绍 ALBEF 和 BLIP 这两个模型的核心设计→ ALBEF:基于图像 - 文本对比学习,搭配动量蒸馏来优化图文对齐效果;BLIP:引入 captioner 生成高质量图文对,再结合 filter 机制筛选优质数据BLIP-2 的整体结构是什么?两阶段训练流程是怎样的?用到了哪些损失函数?→ 结构:在 ViT 和大语言模型之间插入 Q-Former 作为中间桥梁→ Stage1:冻结 ViT 和语言模型,只训练中间的 Q-Former→ Stage2:冻结语言模型,将 Q-Former 与 LM 连接,做指令微调→ 损失:ITC(图文对比损失)+ ITM(图文匹配损失)+ LM 生成损失微调方法(PEFT 全家桶)了解 PEFT 吗?再讲讲 LoRA,重点说明低秩假设的合理性→ PEFT 是参数高效微调的统称,核心是只训练少量参数而不动原模型权重;LoRA 假设模型权重更新量 ΔW 具有低秩特性,将其分解为 A×B,只训练 A、B 两个低秩矩阵,既节省显存又能保留效果除了 LoRA,还有哪些 PEFT 方法?Prefix-tuning 和 P-tuning 有什么区别?→ 其他方法:Adapter Tuning、Prefix-tuning、P-tuning、IA³ 等→ Prefix-tuning:在输入序列前加可学习的 prefix,作用于注意力的 K/V 矩阵,更适合 decoder-only 架构→ P-tuning:用小型网络(如 LSTM)生成连续的 soft prompt,解决离散 prompt 不稳定的问题,更适配 encoder-decoder 模型大模型训练范式你项目中用到的大模型结构是什么?多模态特征是如何喂给大模型的?→ 示例流程:视频帧 → TimeSformer 提取时空特征 → 特征池化 → 线性投影对齐到文本维度 → 拼接到文本 prompt 之前 → 输入 LLM大模型在做了指令微调后,为什么还需要 RLHF?→ 指令微调只是让模型学会遵循指令,但输出可能更偏向 “模板化”;RLHF 是通过人类偏好对齐,让模型输出更符合人类价值观、更自然、更有用的回答,解决 “有用性” 和 “安全性” 问题了解 RLHF 吗?描述它的完整训练流程→ 三阶段流程:① SFT 微调:用高质量指令数据对预训练模型做监督微调,让模型学会基本指令遵循② 训练 Reward Model(RM):用人类标注的偏好数据训练奖励模型,学习给不同模型输出打分③ PPO 优化:用 RM 作为奖励信号,通过 PPO 算法更新策略模型,最大化 RM 给出的奖励,实现与人类偏好对齐手撕 LeetCode 原题:合并 k 个升序链表→ 核心思路:用小根堆维护 k 个链表的当前节点,每次弹出最小值节点并入结果链表,再将该节点的下一个节点入堆,直到所有链表遍历完毕;时间复杂度 O (N log k),N 为总节点数
查看9道真题和解析
点赞 评论 收藏
分享
评论
点赞
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务