【面经】京东零售 - 搜索与推荐平台部 - 算法岗

搜索与推荐平台部的面试很硬核,几乎全是算法编程题。

一面

上来直接考基础,完全不问项目。

1. 最大值期望

问题:两个独立变量满足0到1均匀分布,求两个变量最大值的期望。
答案:
$$

2. 二叉树的前序遍历

3. LeetCode 215. 求数组中第K大的数

4. 海量数据如何找到中位数和第200W个数

5. 括号匹配

给定n对括号,求问总共有多少种排列方式?要求必须满足左右括号的顺序。

二面

1. LeetCode 4. 两个排序数组的中位数

2. 问了一些项目

3. K-means聚类

介绍K-means聚类,以及每次聚类结果是否一致,为什么。

三面

1. Leetcode 143. 重排链表

我先说了一个双队列的方案,然后面试官要求空间复杂度O(1),想了一下然后做链表翻转。

2. 项目深挖

我做的都是CV项目,所以大概问问数学思想。

#京东##面经##秋招##算法工程师#
全部评论
问八股了吗
点赞 回复 分享
发布于 2023-08-25 15:02 湖北
为啥我还在简历初筛阶段。。
点赞 回复 分享
发布于 2019-08-17 15:57
有点硬核
点赞 回复 分享
发布于 2019-08-16 19:30
有结果了吗
点赞 回复 分享
发布于 2019-08-16 19:26
最后一个问题楼主怎么答的😅
点赞 回复 分享
发布于 2019-08-12 19:19

相关推荐

✴️回答:简单点我们可以直接说,bert是基于encoder-only的结构,这个结构用来做生成式任务没有现有大基于decodee-only结构的模型好,其次我们可以说bert这种基于掩码的方式来生成文本本来做的就不是自己目标内的事,当生成较长文本时效果肯定烂的一批,然后我们还可以说bert没办法处理变长输入和输出。✅详细解释如下:BERT在生成式任务中存在一些明显的局限性:1.生成连贯性不足:BERT的训练目标是预测单个被掩盖的单词,而不是生成一长段连贯的文本。因此,在生成较长文本时,可能会出现逻辑不连贯、语义跳跃等问题。例如,它可能会生成一些在局部上下文看似合理,但在整体语篇中显得突兀的句子。2.生成长度受限:BERT的输入长度通常受到限制(一般为512个token左右)。这使得它在生成较长文本时会遇到困难,因为它无法有效地处理超出其输入长度限制的内容。相比之下,专门的生成式模型(如GPT)可以生成更长的文本,并且能够更好地保持文本的整体连贯性。3.缺乏明确的生成目标:专门的生成式模型(如GPT)是通过自回归的方式(从左到右或从右到左)来生成文本,其训练目标就是生成连贯的文本。而BERT的训练目标主要是理解文本,生成只是其能力的一种延伸,因此在生成任务上缺乏像生成式模型那样明确的优化目标。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
4
62
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务