WXG!!!不过凉经。。。

📍面试公司:腾讯

💻面试岗位:WXG-技术架构团队

⏰面试时长:2h

❓面试问题:

0.业务介绍

1.自我介绍

————————————————

面试官听完自我介绍,嗯嗯了几声,然后淡淡的说:我们先代码考核一下吧,之前的邮件收到了吧(是的,在面试前,这个面试官还发了一封邮件,邮件里面说会先进行1h的代码考核)。

然后他发了个腾讯文档给我。

💻代码考核:

一共5道题。

其中,第一第二道题算是leetcode中等题难度。有点模糊了。

———题目————————

1.

2.最长回文子串

3.实现开方(要考虑MOD取模)

4.图论+树:强度上来了。(需要两次dfs,我所想的方法)

5.开放题,也是AI coding。设计一个ThreadPool(线程池);面试官会启动一个AI IDE让我使用。

磕磕碰碰一小时,算是把第四道题磕碰出来了,然后他提问了一个第四题的思路。

然后后续对着我的设计思路还有边界条件进行拷问,试探我的边界考虑点在哪。

————————————————————————

😵问答环节:

1.乐观锁、悲观锁的设计思想

悲观锁:默认一定会发生并发冲突

操作前先加锁,把资源独占起来,别人必须等我用完释放才能用。比如互斥锁 mutex 就是典型悲观锁,简单安全,但并发性能差,容易阻塞、死锁。

乐观锁:默认很少发生冲突

不加锁直接操作,更新的时候再检查数据有没有被别人改过。没被改就更新成功;被改了就放弃重试。依靠版本号 / 时间戳实现,并发高,但是冲突频繁时重试开销很大。

2.互斥变量+互斥锁 和 原子变量+锁 的用途有什么区别

原子变量:CPU 指令级原子操作,不加锁也能保证单个操作原子性

互斥锁 mutex:保证一段代码临界区原子性。

互斥变量(普通变量)+ 互斥锁

适合:多步复杂临界区逻辑

比如先读、再计算、再修改,好几行代码必须一起原子执行,不能被打断。

普通变量本身不原子,必须靠 mutex 把整段代码锁住保护。

原子变量 + 锁(原子变量再套锁)

原子变量本身就能保证单个读写、自增原子,本来不用锁;

再套锁一般不是为了原子性,而是为了顺序一致性、防止乱序、保证多步联合操作

比如原子变量连续两次修改,要求两步一起不可打断,单原子做不到,才外面加锁。

3.vector 对比 map

vector

连续内存数组,动态扩容;

随机访问 O (1),尾插 O (1),中间插入删除 O (n);

有序、缓存友好、速度快;

底层:动态数组。

map

红黑树实现,有序键值对;

查找、插入、删除都是 O (logn);

不支持随机访问,只能迭代遍历;

内存离散,缓存命中率低;

底层:平衡二叉搜索树(红黑树)。

4.进程的通信方式

  • 管道 pipe:匿名管道,父子进程单向通信;有名管道 FIFO,任意进程双向。
  • 消息队列:内核队列,异步收发,不阻塞等待。
  • 共享内存:最快 IPC,直接映射同一块物理内存,需要自己加锁同步。
  • 信号量:主要用来同步互斥,不是传数据。
  • Socket:跨主机、跨进程通用通信,本地进程也能用。
  • 信号 signal:简单异步通知,不能传大数据。
  • 5.协程、线程的区别

    线程:内核调度单元,由操作系统内核切换;切换要进内核态、开销大;多线程是抢占式调度,内核决定谁运行。

    协程:用户态轻量级执行单元,用户自己调度,不经过内核;切换开销极小,完全主动让出,不是抢占;一个线程里可以跑很多协程。

    6.编译和链接中发生了什么

    1. 预处理:替换宏、展开头文件、删除注释、处理条件编译。
    2. 编译:C/C++ 代码编译成汇编代码。
    3. 汇编:汇编代码转成机器码二进制目标文件 (.obj/.o),此时符号都是未解析的。
    4. 链接:把多个目标文件、库文件合并,解析符号引用、重定位地址,最终生成可执行文件。

    区分:编译是转汇编 / 机器码;链接是合并文件 + 填地址。

    7.LLVM框架了解吗?由哪几部分构成

    整体三大部分:

    1. 前端 Frontend:Clang,把 C/C++/Objective-C 源码编译成 LLVM IR 中间代码。
    2. 中端优化器 Optimizer:对 LLVM IR 做各种优化(常量传播、死代码消除、循环优化等),和语言无关。
    3. 后端 Backend:把优化后的 IR 编译成不同 CPU 平台的汇编、机器码。

    特点:前端后端解耦,IR 统一,跨平台容易扩展,现在 Android、iOS、Rust 都是基于 LLVM。

    8.deepseek如何实现本地部署

    下量化模型→选推理框架→配环境→启动本地服务调用,Ollama 一键部署

    9.Transfrom框架、Touch框架了解吗

    Transformers:Hugging Face 出的一个大模型工具库,专门用来快速用 Transformer 架构的模型,比如 BERT、GPT、LLaMA、ViT 这些。

    PyTorch 就是现在最主流的深度学习框架,由 Meta 开发的。

    • PyTorch 是地基(搭建网络、自动求导、运行计算)
    • Transformers 是盖在上面的房子(提供现成的大模型、方便调用)

    Transformers 底层就是基于 PyTorch 实现的,我们用 Transformers 时,本质上还是在跑 PyTorch。

    10.项目拷打

    🙌面试感想:

    不愧是WXG,燃尽了,面完试燃成灰了。强度太大了。

    也算是长见识了,下水道的鼠鼠也是面上腾讯里面最夯的部门了。#牛客AI配图神器#

    #面试问题记录##发面经攒人品##我的求职进度条#
    全部评论
    不好说 我之前答得很好 也挂了
    点赞 回复 分享
    发布于 今天 17:41 上海
    佬是简历写了编译相关的东西嘛?怎么还问了llvm
    点赞 回复 分享
    发布于 今天 17:20 广东

    相关推荐

    评论
    4
    收藏
    分享

    创作者周榜

    更多
    牛客网
    牛客网在线编程
    牛客网题解
    牛客企业服务