正在学vulkan有没有必要继续学ue或unity啊

如题,题主因为准备不充分or本来就菜,挂了某手机厂和某芯片厂的图形引擎开发的面试,还有一些简历挂,然后不知道可以投哪了
bg:双 成都某电,目前会的:vulkan, cuda, c++,图形学大概有games101+202的程度,有点生疏的是深度学习相关和部署优化方法
现在再继续捡起cuda然后allin aiInfra 还是学商业引擎
选前者可能还有实习机会,后者估计是实习不了了
全部评论
与其死磕vk,不如直接学商业引擎源码。把商业引擎渲染的源码和优化吃透了面试可以乱杀。vk这玩意作为api过于复杂了,没有具体情景你很难理解它为什么要设计成这样。
点赞 回复 分享
发布于 05-18 07:22 湖北
商业引擎的话,应该只有客户端可以照着网上项目做一遍突击一下。如果走TA或引擎岗都需要较多实践,经常会被问到场景题,很难突击,比较吃经验,本身有101加202的底子,如果有相关图形渲染项目的话可以试一下投投游戏引擎岗实习,unity好上手但不开源,ue开源但上手较难,教程资料国内也少得可怜,都是零零散散得去自己找。图形学方向的话还可以看看地图渲染引擎的实习,tx这边还在招渲染引擎的实习生,可以在****上搜一下。最后,双9✌不怕没实习。
点赞 回复 分享
发布于 05-14 20:45 河北

相关推荐

06-24 10:39
已编辑
西安交通大学 人工智能
攻略🌈【大模型评估全攻略】!LLM七大核心评估维度保姆级拆解💯👉🏻预训练→SFT→RLHF→数据集→RAG→Agent→Prompt🔥一、预训练评估评估大型语言模型(LLM)的预训练效果需要从多个维度综合考量,涉及基础语言能力、下游任务表现、知识掌握、推理能力等。🔥二、SFT评估评估大型语言模型(LLM)在监督式微调(Supervised Fine-Tuning, SFT)后的效果,需要结合任务目标、领域特性和模型能力设计多维度的评估体系。🔥️三、RLHF评估评估大型语言模型(LLM)在通过RLHF(基于人类反馈的强化学习)后的效果需要从多个维度综合考量,包括生成质量、安全性、对齐性、任务完成度等。🔥四、数据集评估在评估数据集的质量时,可以从以下几个关键方面进行评估:1. 数据多样性2. 数据平衡性3. 数据完整性4. 数据一致性5. 数据与任务的适合性6. 标注准确性🔥五、RAG评估从召回、排序、生成、整体四个维度来评估RAG性能。使用了多种指标,如准确率(Correct)、错误率(Wrong)、失败率(Fail)、BERTScore、ROUGE Score等,以全面评估生成答案的质量。🔥六、Agent评估现如今Agent开发工具/框架不断出现,但如何全面地对Agent进行评估却很困难,本文就从介绍一些主流的Agent/LLM-as-Agent评估工作来看看是否能得到一些启发。🔥七、Prompt评估评估Prompt的好坏需要一个全面和多维度的方法,结合自动评估指标、人工评估和用户反馈等多种手段。选择合适的评估方法和技术,能够有效提升Prompt的质量和生成效果,进而提高模型的整体性能和应用体验。通过不断优化和改进Prompt设计,可以实现更自然、更准确、更有效的自然语言。
点赞 评论 收藏
分享
评论
1
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务