快手推荐算法一面

1.transformer
2.自注意力机制,自注意力机制的起作用的地方
3.BN,LN
4.梯度消失与爆炸的理解
5.论文讲解
6.transformer的位置编码
7.focal loss
8.模型怎么评价好坏
9.自注意力机制的参数量计算
10.编写代码:topk,用了堆排序,快排都写了
全部评论
什么岗啊,怎么感觉纯八股
2 回复 分享
发布于 2024-04-09 21:22 北京
我投的machine learning,一直问我推荐😂刚刚3点40面完
1 回复 分享
发布于 2024-04-08 17:04 江苏
请问佬论文讲解是什么意思呀
点赞 回复 分享
发布于 2024-04-20 00:46 湖南
二面了吗大佬
点赞 回复 分享
发布于 2024-04-14 11:35 河南

相关推荐

1、项目,各种聊就行2、ViT的原理,swin-Transformer的原理,各自对比,他们的编码方式,是否可学习,各自优缺点,attention的区别和滑动方法;3、多模态VLM的不同模块的设计原理,attention原理,旋转位置编码原理4、手撕动态规划题目:给定一个三角形 triangle ,找出自顶向下的最小路径和。 每一步只能移动到下一行中相邻的结点上。相邻的结点 在这里指的是 下标 与 上一层结点下标 相同或者等于 上一层结点下标 + 1 的两个结点。也就是说,如果正位于当前行的下标 i ,那么下一步可以移动到下一行的下标 i 或 i + 1 。 示例 1: 输入:triangle = [[2],[3,4],[6,5,7],[4,1,8,3]] 输出:11 解释:如下面简图所示: 2 3 4 6 5 7 4 1 8 3 自顶向下的最小路径和为 11(即,2 + 3 + 5 + 1 = 11)。 示例 2: 输入:triangle = [[-10]] 输出:-10解题代码:# dp 三角def minimumSum(triangle):# top --downfor i in range(len(triangle)-2, -1, -1):# scane all elemfor j in range(len(triangle[i])):# current +=  下一行最小值triangle[i][j] += min(triangle[i+1][j], triangle[i+1][j+1])# top last就是return triangle[0][0]if __name__ == "__main__":triangle = [[2],[3,4],[6,5,7],[4,1,8,3]]print(minimumSum(triangle))triangle = [[-10]]print(minimumSum(triangle)
查看3道真题和解析
点赞 评论 收藏
分享
评论
19
65
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务