首页 / 五一之后,实习真的很难找吗?
#

五一之后,实习真的很难找吗?

#
43769次浏览 311人互动
五一之后,有人轻轻的碎掉了~
此刻你想和大家分享什么
热门 最新
04-29 15:27
南京大学 Java
入职前要不要向HR说自己肢体残疾
牛客109130932号:same,我当时有些拿了oc被收回,也有领导去努力争取还是没法的。建议拿到offer后直接和HR沟通让领导批,毕竟不可能瞒过去的。一般公司都有招残疾人指标,而且大厂对这些要宽容一些。只能说祝好运,有实力拿大厂offer这些都是小问题,总能有地方去的
点赞 评论 收藏
分享
美团骑手一面面经
一面技术面,面试官应该是一个老骑手了,懂得很多,拷打的很深,很多问题我都答不上来,感觉进不了站长二面了。。。1.自我介绍,有什么特质适应骑手的工作#五一之后,实习真的很难找吗?##牛客AI配图神器#然后开始问情景题2.假设你午高峰时同时配送多个订单,cbd有5个订单同时超时预警,其中3个在写字楼20层以上且电梯排队,1个是容易洒的汤品,另1个客户备注“迟到就拒收,等着差评吧”,你会如何设计这次配送的策略?根本答不出来,感觉就不应该一次接这么多单。。。。我回答应该按照距离来看,然后再先满足汤品,然后送备注的那个客户,最后再送写字楼的,面试官感觉不是很满意。。。3.调度系统发现骑手在午高峰时只接距离近、单价高的订单,导致长距离订单积压。作为平台方,你会如何优化调度算法来平衡骑手收益和用户体验?答不上来。。。骑手岗为什么会问到平台方啊,直接说不清楚,换个问题4.换了个问题,现在你手上已经有4个订单,全部临近超时,这时系统突然推送一个肥单,配送费翻倍。但接了必然导致已有订单超时。你会怎么决策?答应该放弃肥单,肯定不能超时啊。。。不知道为什么要问这个,感觉现在美团特别喜欢问超时的情况?感觉面试官已经有些不耐烦了。。。。回答的确实不好,可能这些问题对于老骑手来说很简单吧,然后问了道算法5.算法:给定一个地图(用邻接矩阵表示),m个取餐点和n个送餐点坐标,你当前位于取餐点1,计算最优路径,使得总行驶距离最短,且所有餐点都取到后再开始配送,要用贪心,但是时间太短了没做出来。。。6.反问,我问了咱们站点主要接的单是周围多大范围的,爬楼多不多,面试官回答要具体看情况,不好说,但是爬楼肯定要爬。然后又问了问面试官个人对于差评是怎么看的,大概差评率多高算高,面试官说越低越好,不好确定,怎么感觉什么都没问出来。。。感觉要挂了,发个面经攒功德,如果挂了我就投隔壁京东骑手了,那边貌似缺人,应该好进一些。。。。有无uu已经是骑手的给个内推?#面试时最害怕被问到的问题##如何判断面试是否凉了##大家都开始春招面试了吗##美团##美团约面##美团暑期一面#
查看7道真题和解析
点赞 评论 收藏
分享
一下午面了三个大模型岗,全是一言难尽...
真服了,我不信有这个题,还不会常见的业务题◆ 大模型(LLMs)基础面• 目前主流的开源模型体系有哪些?• prefix Decoder 和 causal Decoder 和 Encoder-Decoder 区别是什么?• 大模型LLM的 训练目标 是什么?• 涌现能力是啥原因?• 为何现在的大模型大部分是Decoder only结构?• 简单 介绍一下 大模型【LLMs】?• 大模型【LLMs】后面跟的 175B、60B、540B等 指什么?• 大模型【LLMs】具有什么优点?• 大模型【LLMs】具有什么缺点?◆ Layer normalization 篇• Layer Norm 的计算公式写一下?• RMS Norm 的计算公式写一下?• RMS Norm 相比于 Layer Norm 有什么特点?• Deep Norm 思路?• 写一下 Deep Norm 代码实现?• Deep Norm 有什么优点?• LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?• LLMs 各模型分别用了 哪种 Layer normalization?◆ LLMs 激活函数篇• 介绍一下 FFN 块 计算公式?• 介绍一下 GeLU 计算公式?• 介绍一下 Swish 计算公式?• 介绍一下 使用 GLU 线性门控单元的 FFN 块 计算公式?• 介绍一下 使用 GeLU 的 GLU 块 计算公式?• 介绍一下 使用 Swish 的 GLU 块 计算公式?◆ Attention 升级面• 传统 Attention 存在哪些问题?• Attention 优化方向• Attention 变体有哪些?• Multi-head Attention 存在什么问题?• 介绍一下 Multi-Query Attention?• 对比一下 Multi-head Attention 和 Multi-Query Attention?◆ transformers 操作篇◆ LLMs 损失函数篇◆ 相似度函数篇◆ 大模型(LLMs)进阶面◆ 大模型(LLMs)微调面◆ LLMs 训练经验帖◆ 大模型(LLMs)langchain 面◆ 多轮对话中让AI保持长期记忆的8种优化方式篇◆ 基于langchain RAG问答应用实战◆ 基于LLM+向量库的文档对话 经验面.......#五一之后,实习真的很难找吗?##牛客在线求职答疑中心##笔试##面试#
查看29道真题和解析
点赞 评论 收藏
分享
【面试必备】大模型经典面试题+详细答案:背八股文才是王道,不然你面试撑不过五分钟
最近春招正在如火如荼地进行中,看到很多人的简历上都包含大模型相关的工作,各家大厂和初创都很舍得给钱,动辄百万年包也变得不再稀奇。因此在大模型纵横的这个时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。本文汇总了107道大模型算法岗常见的面试题(含答案),内容如下:一、基础篇1、目前主流的开源模型体系有哪些?Transformer体系:由Google提出的Transformer 模型及其变体,如BERT、GPT 等。PyTorch Lightning:一个基于PyTorch的轻量级深度学习框架,用于快速原型设计和实验。TensorFlow Model Garden:TensorFlow官方提供的一系列预训练模型和模型架构。Hugging Face Transformers:一个流行的开源库,提供了大量预训练模型和工具,用于NLP 任务。2、prefix LM 和 causal LM 区别是什么?prefix LM (前缀语言模型):在输入序列的开头添加一个可学习的任务相关的前缀,然后使用这个前缀和输入序列一起生成输出。这种方法可以引导模型生成适应特定任务的输出。causal LM (因果语言模型):也称为自回归语言模型,它根据之前生成的 token 预测下一个token。在生成文本时,模型只能根据已经生成的部分生成后续部分,不能访问未来的信息。3、涌现能力是啥原因?涌现能力 (Emergent Ability) 是指模型在训练过程中突然表现出的新的、之前未曾预料到的能力。这种现象通常发生在大型模型中,原因是大型模型具有更高的表示能力和更多的参数,可以更好地捕捉数据中的模式和关联。随着模型规模的增加,它们能够自动学习到更复杂、更抽象的概念和规律,从而展现出涌现能力。4、大模型LLM的架构介绍?大模型LLM(Large Language Models) 通常采用基于Transformer的架构。Transformer模型由多个编码器或解码器层组成,每个层包含多头自注意力机制和前馈神经网络。这些层可以并行处理输入序列中的所有位置,捕获长距离依赖关系。大模型通常具有数十亿甚至数千亿个参数,可以处理大量的文本数据,并在各种NLP任务中表现出色。前馈神经网络 (Feedforward Neural Network) 是一种最基础的神经网络类型,它的信息流动是单向的,从输入层经过一个或多个隐藏层,最终到达输出层。在前馈神经网络中,神经元之间的连接不会形成闭环,这意味着信号在前向传播过程中不会回溯。前馈神经网络的基本组成单元是神经元,每个神经元都会对输入信号进行加权求和,然后通过一个激活函数产生输出。激活函数通常是非线性的,它决定了神经元的输出是否应该被激活,从而允许网络学习复杂和非线性的函数。前馈神经网络在模式识别、函数逼近、分类、回归等多个领域都有应用。例如,在图像识别任务中,网络的输入层节点可能对应于图像的像素值,而输出层节点可能代表不同类别的概率分布。训练前馈神经网络通常涉及反向传播 (Backpropagation) 算法,这是一种有效的学习算法,通过计算输出层的误差,并将这些误差信号沿网络反向传播,以调整连接权重。通过多次迭代这个过程,网络可以逐渐学习如何减少输出误差,从而实现对输入数据的正确分类或回归。在设计和训练前馈神经网络时,需要考虑多个因素,包括网络的层数、每层的神经元数目、激活函数的选择、学习速率、正则化策略等,这些都对网络的性能有重要影响。5、目前比较受欢迎的开源大模型有哪些?GPT系列:由OpenAl开发的生成式预训练模型,如 GPT-3。BERT系列:由Google开发的转换式预训练模型,如BERT、RoBERTa等。T5系列:由Google开发的基于Transformer的编码器-解码器模型,如T5、mT5等。6、目前大模型模型结构都有哪些?Transformer:基于自注意力机制的模型,包括编码器、解码器和编码器-解码器结构。GPT系列:基于自注意力机制的生成式预训练模型,采用解码器结构。BERT系列:基于自注意力机制的转换式预训练模型,采用编码器结构。T5系列:基于Transformer的编码器-解码器模型。7、prefix LM 和 causal LM、encoder-decoder 区别及各自有什么优缺点?prefix LM:通过在输入序列前添加可学习的任务相关前缀,引导模型生成适应特定任务的输 出。优点是可以减少对预训练模型参数的修改,降低过拟合风险;缺点是可能受到前缀表示长度的限制,无法充分捕捉任务相关的信息。causal LM:根据之前生成的 token预测下一个 token, 可以生成连贯的文本。优点是可以生成灵 活的文本,适应各种生成任务;缺点是无法访问未来的信息,可能生成不一致或有误的内容。encoder-decoder:由编码器和解码器组成,编码器将输入序列编码为固定长度的向量,解码器 根据编码器的输出生成输出序列。优点是可以处理输入和输出序列不同长度的任务,如机器翻译;缺点是模型结构较为复杂,训练和推理计算量较大。8、模型幻觉是什么?业内解决方案是什么?模型幻觉是指模型在生成文本时产生的不准确、无关或虚构的信息。这通常发生在模型在缺乏足够信息的情况下进行推理或生成时。业内的解决方案包括:使用更多的数据和更高质量的训练数据来提高模型的泛化和准确性。引入外部知识源,如知识库或事实检查工具,以提供额外的信息和支持。强化模型的推理能力和逻辑推理,使其能够更好地处理复杂问题和避免幻觉。9、大模型的Tokenizer的实现方法及原理?大模型的Tokenizer通常使用字节对编码 (Byte-Pair Encoding,BPE) 算法。BPE算法通过迭代地将最频繁出现的字节对合并成新的符号,来构建一个词汇表。在训练过程中,模型会学习这些符号的嵌入表示。Tokenizer将输入文本分割成符号序列,然后将其转换为模型可以处理的数字表示。这种方法可以有效地处理大量文本数据,并减少词汇表的规模。10、ChatGLM3的词表实现方法?ChatGLM3 使用了一种改进的词表实现方法。它首先使用字节对编码 (BPE) 算法构建一个基本的词表,然后在训练过程中通过不断更新词表来引入新的词汇。具体来说,ChatGLM3 在训练 过程中会根据输入数据动态地合并出现频率较高的字节对,从而形成新的词汇。这样可以有效地处理大量文本数据,并减少词汇表的规模。同时,ChatGLM3 还使用了一种特殊的词表分割方法,将词表分为多个片段,并在训练过程中逐步更新这些片段,以提高模型的泛化能力和适应性。11、GPT3、LLAMA、ChatGLM 的 Layer Normalization 的区别是什么?各自的优缺点是什么?GPT3:采用了Post-Layer Normalization (后标准化)的结构,即先进行自注意力或前馈神经网络的计算,然后进行Layer Normalization。这种结构有助于稳定训练过程,提高模型性能。LLAMA:采用了Pre-Layer Normalization (前标准化)的结构,即先进行Layer Normalization,然后进行自注意力或前馈神经网络的计算。这种结构有助于提高模型的泛化能力和鲁棒性。ChatGLM:采用了Post-Layer Normalization的结构,类似于GPT3。这种结构可以提高模型的性能和稳定性。#五一之后,实习真的很难找吗?##面试##实习##大模型##硕士##研究生#
点赞 评论 收藏
分享
五一后实习确实难找,但是千万不可以慌哦
点赞 评论 收藏
分享
2024-05-09 17:26
电子科技大学 Java
java五月初终于有实习offer了!
#五一之后,实习真的很难找吗?# 潜水三个月,一度不敢打开牛客,昨天终于收到了第一个offer。lz本科非科班,跨保的转码,本来对自己的基础还挺有自信的,因为本科修了很多计算机专业课,感觉ds os这些学的还蛮好,加上实验室承诺放暑期实习,所以从国庆后就用大量时间学习java相关,lc大概300多题的水平;lz的职业规划来说,其实一直是不想去互联网的,更倾向稳定,想找个国企银行,但是实习可以求互联网,毕竟是万金油的实习经历。但是到了面试的时候,才发现了很多问题。3月3.18 美团到店外卖团队,第一次面试面美团核心部门,面试官很好,开头几个场景题,让我分析,我根据理解说了一下,然后问了redis等八股,感觉自己回答的还不错,最后做题lc 93,有点难没做来,挂了3.25 被优选捞了,然后优选问的八股偏多,OS 网络 多线程,lz发现面试的时候tcp udp这种都说不明白,自己的基础有点太烂了(因为当时看mysql redis居多),其他八股以为自己懂,结果不熟悉,活该自己挂投了一堆pdd 小红书 快手,没人理4月上投了淘天,电话一面,项目被拷打的怀疑人生,八股问的我也一半不会,我都不好意思继续面,痛定思痛决定项目和八股重头来过,跟着教研室速通bat的大佬好好学饿了么,笔试挂,互联网这边冲不动了银行:招银网络科技和招卡中心一面,网络科技一面面了70分钟,我以为稳了要oc了,然后挂了。卡中心一面过,二面线下,从成都去西安面试,也是挺奔波的还参加了中总和工总的笔试,等结果中4月下感觉自己不能all in银行,今年太卷了,而且进度慢,又重新去投互联网,还有各种国企,研究所,小厂,只要是能投的我都投,大概60家左右,但是时间确实不早了,互联网只发了笔试测评,做了无消息,然后券商有人约面,等结果中;其他比如恒生电子、美的这种,做了笔试并且都a了,还是无消息,不知道他们怎么挑的人5月过了五一,第一个星期,有三个面试,好几个笔试测评,还挺累的,然后自己知道卡中心这星期大概率要开奖了,很忐忑,平安证券面完了面试官说这星期给我结果,还有一个其他小公司,等于这周开三个奖,8号晚上吃饭,卡中心来offer了,结束忐忑;总结下来,今年还是很难找,很卷,但是真的别放弃,放弃就真寄了,这几个月其中辛苦,只有找工作的各位自己才知道,希望大家接下来都能拿到满意的offer!#暑期#
轩日天即将年薪百万:电子科大都这么难哦
查看3道真题和解析
点赞 评论 收藏
分享
2024-05-09 12:53
深圳大学 Java
点赞 评论 收藏
分享
玩命加载中
牛客网
牛客企业服务