26.4.15 阿里控股安全一面
一、基本情况 / 项目概述
1.你先做个自我介绍。
2.你最近的一份项目,能不能从整体框架、实现方式、你承担的角色这几个方面讲一下?
________________________________________
二、字节实习:端上特征平台 / 数据处理链路
3.你们这个特征平台,本质上是在做哪些事情?
4.你们是只做数据处理和平台化支撑,真正的使用方是各个业务侧,对吗?
5.端上数据的产生流程是怎么设计的?
6.特征是怎么从原始事件中生成出来的?
7.不同特征之间是怎么区分的?
8.数据产生之后,准确性校验是怎么做的?
9.如果你们主要只是做订阅、采集、落库,那这个平台真正的复杂度和难点在哪里?
10.你刚才提到的平台能力里,除了基础入库,还有哪些额外的处理或运行能力?
________________________________________
三、SQL 优化 / 性能问题
11.你做的 SQL 优化具体是怎么发现问题的?
12.这个问题最初是怎么产生的?
13.你的优化方案具体分成了哪几步?
14.为什么这些 SQL 可以做模板化和合并处理?
15.最终修复效果怎么样?优化指标大概是多少?
________________________________________
四、自动化测试 / MCP / Agent 能力
16.你提到做了自动化测试相关的 Agent 和 MCP,这块整体设计思路是什么?
17.这个自动化测试能力具体包含哪些功能?
18.你是怎么把 MCP 接进自动化测试流程里的?
19.这个自动化测试后面是怎么和业务流程、版本流程结合起来的?
20.如果有新增接口或者代码变更,你们后续怎么补自动化测试用例?
________________________________________
五、AI 投资分析系统 / Multi-Agent 设计
21.你做的 AI 投资项目,是一个 Multi-Agent 项目,对吗?
22.这个 Multi-Agent 架构整体是怎么设计的?
23.主控 Agent 和子 Agent 之间是怎么分工的?
24.不同 Agent 之间的数据是怎么流转的?
25.任务列表、完成标记、工具调用列表这套机制是怎么设计的?
26.你的系统提示词一般是怎么设计出来的?
27.你自己先写提示词,和让 AI 帮你结构化整理,这两部分分别怎么配合?
________________________________________
六、Prompt / 幻觉控制
28.写提示词的时候,怎么尽量减少幻觉?
29.你觉得减少幻觉最关键的设计点是什么?
30.除了提示词约束和标注信息来源,你还有没有别的方法控制幻觉?
________________________________________
七、字节中的 Agent 实践
31.在字节实习期间,除了测试那块,你还做过其他 Agent 相关开发吗?
32.你说的测试 Agent,本质上到底用了哪些 Agent 能力?
________________________________________
八、通用 Agent 设计方法论
33.如果现在让你从一个业务场景出发设计一个 Agent,整个流程你会拆成哪些步骤?
34.在架构设计阶段,你会先判断哪些关键问题?
35.什么时候适合做简单的一问一答式 Agent,什么时候适合做 ReAct / Plan-and-Execute 这种复杂 Agent?
36.长短期记忆、工具设计、安全审查,这些部分在 Agent 设计里分别怎么考虑?
37.你觉得一个 Agent 的最小可行版本(MVP)应该包含哪些核心部分?
________________________________________
九、Agent 评估 / 数据集 / 上线
38.一个 Agent 做出来之后,你怎么评估它的效果?
39.你刚才说需要准备测试数据集,那这个测试集应该怎么设计?
40.如果测试集不好准备,那上线前你怎么确认这个 Agent 足够可用?
41.除了离线测试,你会怎么做人工测试和灰度验证?
________________________________________
十、Agent 安全 / Prompt Injection / 越权
42.Agent 测试时,除了正常测试,你有没有了解过异常测试场景?
43.你对越权调用、Prompt 投毒这类安全问题了解多少?
44.如果要做这类安全防御,你会怎么设计技术方案?
45.在输入侧做规则引擎和小模型审查,这两种思路你怎么理解?
________________________________________
十一、C++ 并发 / 异步 / 落库
46.你提到过 concurrent hashmap,你能讲讲它的实现原理吗?
47.这个结构是怎么保证线程安全的?
48.你们当时这个并发 map 真的是无锁实现吗?
49.如果是锁 + 条件变量,它具体是怎么工作的?
50.你提到异步落库,这个异步队列是怎么设计的?
51.你们怎么处理消息延迟、消息丢失、消息堆积这些问题?
52.如果队列在内存里堆积,进程或者机器异常退出,消息怎么恢复?
53.你们当时对失败重试和上报之外,有没有更完整的恢复设计?
________________________________________
十二、网络基础 / HTTP
54.你大致说一下 HTTP/1.1 和 HTTP/2 的区别。
55.在长连接场景下,比如 Agent、模型交互、AI Coding 这些场景里,HTTP/1.1 和 HTTP/2 一般分别适用于什么情况?
56.如果要选协议,你会怎么考虑它们各自的适用场景?
1.你先做个自我介绍。
2.你最近的一份项目,能不能从整体框架、实现方式、你承担的角色这几个方面讲一下?
________________________________________
二、字节实习:端上特征平台 / 数据处理链路
3.你们这个特征平台,本质上是在做哪些事情?
4.你们是只做数据处理和平台化支撑,真正的使用方是各个业务侧,对吗?
5.端上数据的产生流程是怎么设计的?
6.特征是怎么从原始事件中生成出来的?
7.不同特征之间是怎么区分的?
8.数据产生之后,准确性校验是怎么做的?
9.如果你们主要只是做订阅、采集、落库,那这个平台真正的复杂度和难点在哪里?
10.你刚才提到的平台能力里,除了基础入库,还有哪些额外的处理或运行能力?
________________________________________
三、SQL 优化 / 性能问题
11.你做的 SQL 优化具体是怎么发现问题的?
12.这个问题最初是怎么产生的?
13.你的优化方案具体分成了哪几步?
14.为什么这些 SQL 可以做模板化和合并处理?
15.最终修复效果怎么样?优化指标大概是多少?
________________________________________
四、自动化测试 / MCP / Agent 能力
16.你提到做了自动化测试相关的 Agent 和 MCP,这块整体设计思路是什么?
17.这个自动化测试能力具体包含哪些功能?
18.你是怎么把 MCP 接进自动化测试流程里的?
19.这个自动化测试后面是怎么和业务流程、版本流程结合起来的?
20.如果有新增接口或者代码变更,你们后续怎么补自动化测试用例?
________________________________________
五、AI 投资分析系统 / Multi-Agent 设计
21.你做的 AI 投资项目,是一个 Multi-Agent 项目,对吗?
22.这个 Multi-Agent 架构整体是怎么设计的?
23.主控 Agent 和子 Agent 之间是怎么分工的?
24.不同 Agent 之间的数据是怎么流转的?
25.任务列表、完成标记、工具调用列表这套机制是怎么设计的?
26.你的系统提示词一般是怎么设计出来的?
27.你自己先写提示词,和让 AI 帮你结构化整理,这两部分分别怎么配合?
________________________________________
六、Prompt / 幻觉控制
28.写提示词的时候,怎么尽量减少幻觉?
29.你觉得减少幻觉最关键的设计点是什么?
30.除了提示词约束和标注信息来源,你还有没有别的方法控制幻觉?
________________________________________
七、字节中的 Agent 实践
31.在字节实习期间,除了测试那块,你还做过其他 Agent 相关开发吗?
32.你说的测试 Agent,本质上到底用了哪些 Agent 能力?
________________________________________
八、通用 Agent 设计方法论
33.如果现在让你从一个业务场景出发设计一个 Agent,整个流程你会拆成哪些步骤?
34.在架构设计阶段,你会先判断哪些关键问题?
35.什么时候适合做简单的一问一答式 Agent,什么时候适合做 ReAct / Plan-and-Execute 这种复杂 Agent?
36.长短期记忆、工具设计、安全审查,这些部分在 Agent 设计里分别怎么考虑?
37.你觉得一个 Agent 的最小可行版本(MVP)应该包含哪些核心部分?
________________________________________
九、Agent 评估 / 数据集 / 上线
38.一个 Agent 做出来之后,你怎么评估它的效果?
39.你刚才说需要准备测试数据集,那这个测试集应该怎么设计?
40.如果测试集不好准备,那上线前你怎么确认这个 Agent 足够可用?
41.除了离线测试,你会怎么做人工测试和灰度验证?
________________________________________
十、Agent 安全 / Prompt Injection / 越权
42.Agent 测试时,除了正常测试,你有没有了解过异常测试场景?
43.你对越权调用、Prompt 投毒这类安全问题了解多少?
44.如果要做这类安全防御,你会怎么设计技术方案?
45.在输入侧做规则引擎和小模型审查,这两种思路你怎么理解?
________________________________________
十一、C++ 并发 / 异步 / 落库
46.你提到过 concurrent hashmap,你能讲讲它的实现原理吗?
47.这个结构是怎么保证线程安全的?
48.你们当时这个并发 map 真的是无锁实现吗?
49.如果是锁 + 条件变量,它具体是怎么工作的?
50.你提到异步落库,这个异步队列是怎么设计的?
51.你们怎么处理消息延迟、消息丢失、消息堆积这些问题?
52.如果队列在内存里堆积,进程或者机器异常退出,消息怎么恢复?
53.你们当时对失败重试和上报之外,有没有更完整的恢复设计?
________________________________________
十二、网络基础 / HTTP
54.你大致说一下 HTTP/1.1 和 HTTP/2 的区别。
55.在长连接场景下,比如 Agent、模型交互、AI Coding 这些场景里,HTTP/1.1 和 HTTP/2 一般分别适用于什么情况?
56.如果要选协议,你会怎么考虑它们各自的适用场景?
全部评论
相关推荐
查看27道真题和解析