llm算法进

双九女研一想找llm算法岗,打算投日常,只有一段中厂研究型实习(两篇在投),项目的话,一段垂域训练全流程项目,浅投了一下boss,目前小公司联系的比较多,家人们要找到大厂实习的话,需要再补一个rag或者agent的项目嘛?
#简历中的项目经历要怎么写#  #没有实习经历,还有机会进大厂吗#
全部评论
实习的话要不要看看我们这里的AI岗,急招岗,概率很大,我可以帮你tui呀
1 回复 分享
发布于 04-28 16:37 天津
佬,想问问llm的算法日常实习要怎么准备呀,无paper无项目的人真的很难受
点赞 回复 分享
发布于 昨天 21:48 江苏
研究性实习是在投的时候知道的还是招聘信息会有标注呀
点赞 回复 分享
发布于 05-05 18:43 天津
这随便找吧
点赞 回复 分享
发布于 04-30 14:26 上海
这个点日常实习不太缺人,你也可以去大模型的六小龙这种也可以
点赞 回复 分享
发布于 04-30 04:05 湖南
帮自己顶一顶
点赞 回复 分享
发布于 04-29 10:48 广东

相关推荐

我是985研究生,最近学校在组织开题,大家都在非常紧张地准备,但我一直进入不了状态,很想做但是心又很浮躁。但我的室友们感觉都非常认真,每天醒来就开始看论文,睡着前最后一件事还是在看论文,我非常焦虑。我感觉自己甚至有点把大家当做假想敌了。这种比较心态还存在于生活的各种方面:看到有钱的同学会非常羡慕,看到朋友圈里面环游世界的留学生同学也会羡慕,看到那些工作后有自己的钱而过上较为阔绰的生活的时候还是羡慕,就仿佛只有自己一个人在阴暗爬行。而且这些比较是每时每刻的,为了不比较,我已经关闭了朋友圈,但是每次偶尔刷一下还是会难受很久。我知道比较是偷走幸福的小偷,但我好像控制不了,感觉自己是一个偷窥别人生活的...
若怜君欢:担心开题搞砸了,幻想拥有别人的生活,本质上是因为自卑,楼主小时候大概率是留守儿童或者父母关系很紧张,导致楼主没有安全感、焦虑、内耗。 这样的情况最好的办法就是建立自信和降低期待,建立自信不是一蹴而就,而是循序渐进,比如告诉自己允许自己第一次没把事情做好,失败了能搞清楚其中缘由而不是全盘否定自己,失败不是终点,放弃才是;降低期待只要记住一句话即可,能伴随你一生的,只有经验和学识,所以你对事情的态度应该更多地去思考它是否能带来学识和经验的增长,而不是仅仅用短期的利益作为唯一期待。 人生不是一成不变的,它是可以迭代更新的,去归纳总结自身的不足并结合实际去改进,去尝试一些新的思路和方法,不要固执钻牛角尖,也不要反复横跳,为自己设立一个高度聚集的精神内核,内核之上可以去尝试一切有利于自己更好的方式 以上就是我个人对生活的理解,共勉
点赞 评论 收藏
分享
真服了,我不信有这个题,还不会常见的业务题◆ 大模型(LLMs)基础面• 目前主流的开源模型体系有哪些?• prefix Decoder 和 causal Decoder 和 Encoder-Decoder 区别是什么?• 大模型LLM的 训练目标 是什么?• 涌现能力是啥原因?• 为何现在的大模型大部分是Decoder only结构?• 简单 介绍一下 大模型【LLMs】?• 大模型【LLMs】后面跟的 175B、60B、540B等 指什么?• 大模型【LLMs】具有什么优点?• 大模型【LLMs】具有什么缺点?◆ Layer normalization 篇• Layer Norm 的计算公式写一下?• RMS Norm 的计算公式写一下?• RMS Norm 相比于 Layer Norm 有什么特点?• Deep Norm 思路?• 写一下 Deep Norm 代码实现?• Deep Norm 有什么优点?• LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?• LLMs 各模型分别用了 哪种 Layer normalization?◆ LLMs 激活函数篇• 介绍一下 FFN 块 计算公式?• 介绍一下 GeLU 计算公式?• 介绍一下 Swish 计算公式?• 介绍一下 使用 GLU 线性门控单元的 FFN 块 计算公式?• 介绍一下 使用 GeLU 的 GLU 块 计算公式?• 介绍一下 使用 Swish 的 GLU 块 计算公式?◆ Attention 升级面• 传统 Attention 存在哪些问题?• Attention 优化方向• Attention 变体有哪些?• Multi-head Attention 存在什么问题?• 介绍一下 Multi-Query Attention?• 对比一下 Multi-head Attention 和 Multi-Query Attention?◆ transformers 操作篇◆ LLMs 损失函数篇◆ 相似度函数篇◆ 大模型(LLMs)进阶面◆ 大模型(LLMs)微调面◆ LLMs 训练经验帖◆ 大模型(LLMs)langchain 面◆ 多轮对话中让AI保持长期记忆的8种优化方式篇◆ 基于langchain RAG问答应用实战◆ 基于LLM+向量库的文档对话 经验面.......#五一之后,实习真的很难找吗?##牛客在线求职答疑中心##笔试##面试#
大模型海文:所有面试题可以开源给大家 后台T一下
点赞 评论 收藏
分享
评论
1
1
分享

创作者周榜

更多
牛客网
牛客企业服务