大疆笔试-计算机视觉算法B卷

一、单选:
1、CLIP模型的主要创新点:图像和文本两种不同模态数据之间的深度融合、对比学习、自监督学习
2、一个3*3,stride=1,dilation=1的卷积加上一个步长为2的2*2池化,再加上一个3*3 ,stride=3,dilation=1的卷积对应的等效步长是多少:6(第一步不改变步长,第二步步长为2,第三步步长为2*3)
3、a=np.random.randn(3,3) b=np.random.randn(3,1) ,那么c=a*b的维度应该是:*是元素乘法或者torch.mul,@才是矩阵乘法或者torch.matmul,不会触发广播机制;
4、3D高斯:3D高斯无需迭代,而Nerf需要MLP计算点属性;3D高斯经过旋转、平移、缩放后仍是一个高斯函数;3D高斯不是隐式表达;通常3D高斯变2D不需要雅可比近似,某些情况下需要
5、物理空间已知的杆,能够约束相机和激光雷达多少个自由度:答案不确定,应该是3,4;
6、Pointformer不是点云的特征提取方法
7、使用KLT求解二维单应矩阵和一维单应矩阵的最少匹配点数是4,2
8、将分辨率降低一半时,精标定内参(fx、fy、cx、cy、k1、k2、k3)焦距、光心、畸变系数将分别变成(fx、fy、cx/2、cy/2、k1、k2、k3),只能搜到光心变成一半,畸变系数不变
9、神经网络的channel扩大2倍,算力扩大2倍,带宽扩大2倍
二、多选:
1、减少模型层数据和缩小输入尺寸可以降低深度学习推理的带宽需求
2、解决样本不均衡的方法有Focal Loss、数据增强、多样本欠采样
3、Dice损失常用于图像分割、目标检测、自然语言处理
4、在默认流中,所有的CUDA操作(包括kernel执行和内存拷贝)都是顺序执行的;cudaMemcpyAsync函数是异步执行;如果你没有显式地使用锁页内存,CUDA 运行时可能会选择将数据先复制到锁页内存缓冲区,然后再将数据从锁页内存传输到设备内存;任务被分配到各个Stream(流)后,这些任务确实是互不干扰、独立进行的
5、如果某个矩阵的某个特征值为0,则为奇异矩阵;不满秩;至少一个奇异值为0,是方阵
6、不是任意矩阵都能特征分解;并不是所有方阵的特征值都是实数;奇异矩阵至少有一个特征值为0;矩阵B可以分解为A和A转置,若A为行满秩,则B的特征向量一定正交
7、同一台电脑两次运算一个浮点运算的值可能不同;浮点数不满足结合律;浮点数不能批量填充0比特;正常浮点数乘除法仍是正常浮点数
8、组合导航算法中ESEKF可以最小参数化状态变量;可以有效避免奇异问题;大幅降低计算复杂性;可以提升状态估计算法精度
9、提高重复纹理环境定位感知能力的方法有调整SGBM参数,增大平滑项权重、加robust norm、高斯滤波、时域滤波
10、在DFT中频谱的分辨率和信号长度成反比;Laplacian滤波器可以用于边缘检测;非局部均值滤波器可以用于去噪并保留图像结构信息;梯度幅值和方向都重要
11、增加训练量、使用正则化、使用dropout都可以防止模型过拟合
12、KLT算法在频闪光源、重复纹理、高速机动、环境照度低的情况下效果显著下降
三、判断:
1、dropout不直接提高训练速度
2、深度可分离卷积计算量比普通卷积小
3、1*1卷积不改变空间特征,仅改变通道数
4、ICP算法局部最优是因为位姿初值不准
5、匈牙利算法能够在多目标跟踪时准确跟踪每个目标
6、物理世界的三条平行线在成像平面相交在一个点
7、cuda中H2D、kernel、D2H可以重叠执行
8、使用triplet loss训练时不一定全部使用hard triplet
9、两个随机变量独立,那么他们一定不相关
全部评论
报成图像处理岗位了,笔试题都不会😭
2 回复 分享
发布于 2024-08-18 22:41 河北
楼主好厉害
1 回复 分享
发布于 2024-08-19 21:12 黑龙江
B卷没有代码题吗?
点赞 回复 分享
发布于 2025-08-15 05:48 德国
十五分钟写完了 😅 居然不是代码题,难绷
点赞 回复 分享
发布于 2024-08-20 01:49 上海
这些都是看论文总结出来的吗
点赞 回复 分享
发布于 2024-08-18 22:47 四川

相关推荐

最终还是婉拒了小红书的offer,厚着脸皮回了字节。其实这次字节不管是组内的氛围、HR的沟通体验,都比之前好太多,开的薪资也还算过得去,这些都是让我下定决心的原因之一。但最核心的,还是抵不住对Agent的兴趣,选择了Ai Coding这么一个方向。因为很多大佬讲过,在未来比较火的还是属于那些更加垂类的Agent,而Ai Coding恰好是Coding Agent这么一个领域,本质上还是程序员群体和泛程序员群体这个圈子的。目前也已经在提前实习,也是全栈这么一个岗位。就像最近阿里P10针对前端后端等等不再那么区分,确实在Agent方向不太区分这个。尤其是我们自己做AI Coding的内容,基本上90%左右的内容都是AI生成的,AI代码仓库贡献率也是我们的指标之一。有人说他不好用,那肯定是用的姿态不太对。基本上用对Skill、Rules 加上比较好的大模型基本都能Cover你的大部分需求,更别说Claude、Cursor这种目前看来Top水准的Coding工具了(叠甲:起码在我看来是这样)。所以不太区分的主要原因,还是针对一些例如Claude Code、Cursor、Trae、Codex、CC等一大堆,他们有很多新的概念和架构提出,我们往往需要快速验证(MVP版本)来看效果。而全栈就是这么快速验证的一个手段,加上Ai Coding的辅助,目前看起来问题不大(仅仅针对Agent而言)。而且Coding的产品形态往往是一个Plugin、Cli之类的,本质还是属于大前端领域。不过针对业务后端来看,区分还是有必要的。大家很多人也说Agent不就是Prompt提示词工程么?是的没错,本质上还是提示词。不过现在也衍生出一个新的Context Eneering,抽象成一种架构思想(类比框架、或者你们业务架构,参考商品有商品发布架构来提效)。本质还是提示词,但是就是能否最大化利用整个上下文窗口来提升效果,这个还是有很多探索空间和玩法的,例如Cursor的思想:上下文万物皆文件, CoWork之类的。后续也有一些Ralph Loop啥的,还有Coding里面的Coding Act姿态。这种才是比较核心的点,而不是你让AI生成的那提示词,然后调用了一下大模型那么简单;也不是dify、LangGraph搭建了一套workflow,从一个node走到另外一个node那么简单。Agent和WorkFLow还是两回事,大部分人也没能很好的区分这一点。不过很多人说AI泡沫啥啥啥的,我们ld也常把这句话挂在嘴边:“说AI泡沫还是太大了”诸如此类。我觉得在AI的时代,懂一点还是会好一点,所以润去字节了。目前的实习生活呢,除了修一些Tools的问题,还包括对比Claude、Cursor、Trae在某些源码实现思想上的点,看看能不能迁移过来,感觉还是比较有意思。不过目前组内还是主要Follow比较多,希望下一个阶段就做一些更有创新的事情哈哈。这就是一个牛马大学生的最终牧场,希望能好好的吧。说不定下次发的时候,正式AI泡沫结束,然后我又回归传统后端这么一个结局了。欢迎交流👏,有不对的🙅不要骂博主(浅薄的认知),可以私聊交流
码农索隆:和优秀的人,做有挑战的事
点赞 评论 收藏
分享
评论
18
85
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务