家人们,你们被面试官怀疑过作弊吗?

今天面了一家,面完后二十分钟,面试官突然打电话,说觉得我回答问题的时候在看辅助。
因为我写代码时候看屏幕正前方,回答他问题的时候却在看屏幕右边
我直接无语了😅看屏幕右边是因为面试官的脸在右边啊,跟一个人说话的时候,不都是习惯性地看ta的脸吗?
想起来之前一次,写代码的时候在草稿纸上画图,面试官还问我是不是在看啥,不过是当场问的,没有过后再打电话

咱就是说,会不会有面试官怀疑作弊,也不质问,直接就给挂了的情况啊?#远程面试的尴尬瞬间#
全部评论
回:你问的问题用不着作弊,别惯着这帮牢登
91 回复 分享
发布于 2025-11-10 14:01 河南
我也是,他让我把摄像头拿远点,我直接往后坐了一米
30 回复 分享
发布于 2025-11-10 16:12 重庆
有啊 我还碰到了思考就说在作弊的面试官
9 回复 分享
发布于 2025-11-11 22:15 福建
我之前面试别人,就怀疑对方作弊,回答问题总是慢半拍的
3 回复 分享
发布于 2025-11-15 15:54 陕西
直接报名字呗,我今天面上海 ucloud 就是,而且态度很差劲
3 回复 分享
发布于 2025-11-11 18:52 广东
一样,有道题秒了,当场让我看周围有没有资料,难绷,做的快也不行
2 回复 分享
发布于 2025-11-12 17:48 辽宁
作作咋啦 有本事他工作别用AI
1 回复 分享
发布于 2025-11-21 17:42 广东
我笔记本接的外屏,虽然脸是歪的,但是好像也没人说过。只有华为的面试要求两台设备接入,一台用来拍侧面视角、包含显示器画面
1 回复 分享
发布于 2025-11-12 11:39 山东
没办法就当是压力面吧
1 回复 分享
发布于 2025-11-11 21:28 江苏
那不是很正常吗,盯着屏幕和看摄像头眼睛是不一样的
点赞 回复 分享
发布于 2025-12-09 19:34 山东
啊,你回答问题时候没看着面试官吗
点赞 回复 分享
发布于 2025-12-07 17:43 福建
佬是哪一届的
点赞 回复 分享
发布于 2025-12-04 17:00 福建
作弊最好还是不要
点赞 回复 分享
发布于 2025-11-23 09:57 北京
面了哪家
点赞 回复 分享
发布于 2025-11-13 16:33 英国
直接怼
点赞 回复 分享
发布于 2025-11-12 09:53 上海
怀疑过很多次了
点赞 回复 分享
发布于 2025-11-11 22:46 上海
运气不好
点赞 回复 分享
发布于 2025-11-10 20:18 北京
被怀疑不是本人
点赞 回复 分享
发布于 2025-11-10 16:40 北京
这没办法,完全看面试官的判断
点赞 回复 分享
发布于 2025-11-10 15:54 湖北
我也有一两次被怀疑的,太难顶了
点赞 回复 分享
发布于 2025-11-10 13:37 吉林

相关推荐

04-28 22:40
门头沟学院 C++
1、工具调用失败或 LLM 幻觉,怎么办?"我会把这个问题拆成两个子问题,因为工具失败和 LLM 幻觉是完全不同的故障模式,解法不能混用。工具失败有明确信号——异常、超时、错误码——我的处理是三层:先用指数退避重试,重试前让 LLM 反思上次参数哪里出了问题,相当于让模型自我纠错;重试耗尽后降级到备用逻辑,比如换一个工具或走规则引擎;如果涉及写操作,每次执行前必须记 Checkpoint,失败后能回滚到上一个干净状态,且写操作要做幂等,防止重放。LLM 幻觉更难检测,因为没有报错。我的做法是:对关键推理结果做 Self-consistency 验证,同一问题采样三次,少数服从多数;对外部事实型问题,用第二个模型做交叉 Fact-check;对于高风险操作,强制加 Human-in-the-loop 确认节点,不管模型多确定都要过人工。生产上我会为每个 Agent 实例暴露健康度指标:工具失败率、幻觉拦截率、平均重试次数,超阈值自动熔断并告警。这样从 demo 到上线,容错体系才是完整的。"2、Agent 的 Memory 怎么设计?"我把 Agent Memory 设计成三层,对应人类记忆的三种形式。第一层是 Working Memory,就是当前 LLM 的 Context Window,存当前任务的执行状态和工具调用历史。它的核心问题是容量管理——超出 window 时我不会直接截断,而是对老的消息做摘要压缩,保留语义但压缩 token。第二层是 Episodic Memory,存历史任务轨迹和用户偏好,用向量数据库按相似度检索。写入是任务结束后异步进行,不阻塞主链路。这层需要遗忘机制——我用一个重要性评分:访问频率乘以时效性衰减再乘以任务相关度,低分记录定期压缩,避免向量库无限膨胀。第三层是 Semantic Memory,存领域知识。这里有一个选型决策点:非结构化知识用向量检索,强结构化的多跳实体关系用 Knowledge Graph——向量库做多跳关系推理效率很差,这是实际踩过的坑。多 Agent 场景还要解决共享 Memory 的一致性问题:写操作加版本号做乐观锁,读操作做版本校验,防止多个 Agent 并发写入产生脏数据。"
查看2道真题和解析
点赞 评论 收藏
分享
评论
14
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务