分享一下语音算法岗的目前秋招情况吧

语音算法的hc少之又少,每个厂基本也就一两个hc,毕竟语音的团队规模我每次问面试官基本都回答5到15个人,还是太难了。
牛客上基本没有佬发语音算法相关的帖子,我发一下我的情况给大家做一个参考吧。
bg:29,有论文,无实习,无大模型相关经历

OC:京东,作业帮,讯飞飞星,思必驰,比亚迪(已拒),中兴(终试),百度(只是打电话说排名靠前,无明确意向)

泡池子:滴滴,腾讯音乐

二面完成:b站,海康,阿里云(挂),优酷(挂)

一面完成:携程,小米,理想,荣耀(挂),影石,大疆(挂),蚂蚁(挂),腾讯(挂)

还有一堆简历挂笔试挂复筛挂的

我个人对语音方向还是有点劝退的,想进字节阿里腾讯这种top大厂应该是很难的(能实习还是去实习好,没实习基本不用想了)。大家报团取暖吧。
#语音算法##面试##腾讯##京东#
全部评论
大佬你好,我是27届的,目前也是做语音这块,想请教一下,找工作应该做哪些准备工作呢
点赞 回复 分享
发布于 04-18 13:26 广东
几篇论文?
点赞 回复 分享
发布于 02-18 23:29 日本
佬,语音算法实习要准备什么啊,网上都找不到相关八股和经验
点赞 回复 分享
发布于 02-13 16:41 黑龙江
语音算法这回真的灰飞烟灭了
点赞 回复 分享
发布于 2024-11-01 15:14 北京
兄弟你好,我是27届的,硕士研究方向也是语音,不过比较小众,主要是脑电信号与语音关联的多模态方向。请问如果以后打算走算法方向的话应该是直接准备语音算法还是直接准备搜广推。
点赞 回复 分享
发布于 2024-10-31 14:03 安徽
同百度语音技术部泡池子,不知道开奖几率大不大。牛客最新贴讲这个部门好像负面消息比较多,不知真假
点赞 回复 分享
发布于 2024-10-23 02:30 河南
报团取暖,我是做声信号处理的,对口的方向确实也就语音算法了,现在打算转搜广推试试
点赞 回复 分享
发布于 2024-10-14 13:02 浙江
比今年llm好
点赞 回复 分享
发布于 2024-10-13 12:19 北京
佬!我纯做语音的,还一点消息没有佬有时间能做个面经帖嘛,太难了我等菜鸡
点赞 回复 分享
发布于 2024-10-12 21:14 上海

相关推荐

滴滴语音方向算法实习生招聘:工作城市:北京岗位职责(具体工作内容):1、参与超大规模语音数据治理:参与数亿级语音数据的自动化清洗、质量评估与元信息挖掘(如语种、信道、噪声等);2、大规模声纹建模:协助训练与优化千万级ID的声纹识别(Speaker Recognition)模型,提升大规模场景下的识别准确率与鲁棒性;3、语音预训练探索:参与自监督/半监督语音表征学习(如WavLM、Whisper-style等)的预训练实验与调优;4、语音大模型垂类适配:基于通用语音大模型(如Whisper、MMS、VALL-E、SpeechGPT等),开展以下属性感知微调与对齐:声纹特征解耦与表征学习情感识别性别与年龄属性预测方言/口音识别与适配任职资格:1、计算机、人工智能、电子信息、声学或相关专业硕士及以上在读(2026年及以后毕业)2、精通Python,熟悉 PyTorch,具备大规模数据处理经验3、熟悉语音基础技术:声纹嵌入(x-vector, ECAPA-TDNN)、情感特征(eGeMAPS, IS13)、方言识别或属性分类模型4、了解自监督预训练语音模型(如 Wav2Vec 2.0、Whisper、MMS)或语音大模型基本架构5、每周可实习 ≥4天,持续 ≥3个月加分项:1、有声纹/情感/方言相关项目或竞赛经验(如VoxCeleb、IEMOCAP、DF2022等)2、熟悉多任务学习、解耦表征、提示微调(Prompt Tuning)或LoRA等大模型适配技术3、掌握音视频处理工具链(FFmpeg, librosa, torchaudio, Kaldi)4、在 INTERSPEECH / ICASSP / ACL / EMNLP 等会议发表过相关工作简历投递:邮箱 xuetaolve@didiglobal.comPS:流程贼快,急需人,面试要求不高
投递滴滴等公司6个岗位
点赞 评论 收藏
分享
1.实习介绍2. Lora 原理(核心是低秩分解:将原始权重更新近似为两个低秩矩阵乘积,减少参数量,保留主导方向,训练高效)3.了解 DeepSpeed 吗,ZeRO -1, ZeRO -2和 ZeRO3分别做了哪些优化(1优化优化器状态,2优化梯度,3切分参数,全面节省显存)4. Qwen的模型结构是怎么样的,相比于 LLaMA,DeepSeek 有什么区别(Qwen采用GQA+SwiGLU+RMSNorm,和LLaMA架构非常相似,差异在训练数据和tokenizer中文支持更好;DeepSeek只用MoE/MLA架构,Qwen系列主要是Dense模型)5.怎么缓解大模型的幻觉问题(RAG,RLHF对齐,事实监督)6.大模型的 MoE 结构相比于 Dense 结构训练的难点在什么地方,DeepSeekMoE为什么效果好,有什么值得我们借鉴创新点(MoE面临负载不均衡、训练不稳定问题;DeepSeekMoE通过细粒度专家和共享专家设计提升稳定性和效果)7.知道FP16和BF16有什么区别吗,包括FP32和INT8这些,在训练大模型的时候,应该怎么选择(FP16精度高但易溢出,BF16动态范围大;训练常用BF16混合精度,推理用INT8量化加速)8.讲-下 RLHF 的流程,写-下 PPO和 DPO的 Loss表达式(训练奖励模型后用PPO/DPO优化策略:PPO Loss: policy ratio + KL 约束/ DPO Loss: logit preference diff + sigmoid binary loss)9.对于超长上下文业界一般是怎么做的,你知道 Qwen是怎么做的吗(业界常用ROPE 变体/滑动窗口注意力/稀疏注意力等:Qwen使用YaRN和窗口注意力扩展上下文)10.开放题:你觉得目前大模型的上限在哪里(推理能力、长期记忆、具身交互和能耗效率,需要架构创新和多模态融合突破)11.代码:152.乘积最大子数组
查看9道真题和解析
点赞 评论 收藏
分享
评论
13
17
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务