不会的八股记录

    1.execute 方法和submit 方法提交任务到线程池的区别?

    任务类型支持 execute 方法只能提交实现了 Runnable 接口的任务,且不支持返回值,无法获取任务的执行结果。 submit 方法既可以提交 Runnable 类型的任务,也可以提交 Callable 类型的任务。Callable 任务可以返回执行结果。

    异常处理 execute 方法在任务执行过程中如果发生异常,会直接抛出并打印到控制台。 submit 方法不会直接抛出异常,异常会被封装在 Future 对象中,只有在调用 Future.get() 方法时才会抛出异常。

    还知道哪些 ThreadLocal 的变种实现?

  1. InheritableThreadLocal:在创建子线程时,父线程会将自己的inheritableThreadLocalsMap复制一份给子线程。问题:**只适用于new Thread()创建新线程的场景**。
  2. TransmittableThreadLocal ,解决了InheritableThreadLocal在线程池场景下的传递问题。原理:它引入了holder的概念。在提交任务到线程池时(通过TtlRunnable/TtlCallable包装),会**快照**下当前的所有TTL变量。当线程池中的线程执行任务时,它会先备份自己原来的TTL上下文,然后**还原**成任务被提交时的快照,执行完后再**恢复**自己原来的上下文。这是目前解决线程池上下文传递的标准方案。
  3. 具体例子:

    假设线程1先执行任务1,任务1是由线程A提交的,那么任务1会捕获线程A的TTL上下文。当线程1执行任务1时:

    • 首先备份线程1自己的TTL上下文(可能是空的,也可能是之前任务留下的)
    • 然后将任务1捕获的快照(即线程A的TTL上下文)设置到线程1中
    • 执行任务1
    • 执行完后,恢复线程1原来的TTL上下文

    然后,线程1接着执行任务2,任务2是由线程B提交的,那么任务2会捕获线程B的TTL上下文。当线程1执行任务2时:

  4. 首先备份线程1当前的TTL上下文(注意:此时线程1的上下文是执行任务1后恢复的,可能是空的,也可能是线程1之前任务留下的)
  5. 然后将任务2捕获的快照(即线程B的TTL上下文)设置到线程1中
  6. 执行任务2
  7. 执行完后,恢复线程1之前备份的上下文

    处理2000亿条数据的查询优化:水平/垂直分片(水平分片约等于分库 降低单机压力 )读写分离与多级缓存 索引 查询sql优化 选择合适的存储引擎 架构:批处理+实时处理(kafka+flink)

    (copy的感觉语言组织很好)

    1、常见的方案有数据库自增ID、UUID、Redis生成和雪花算法。实际分布式场景下,雪花算法更常用,它将ID分为时间戳、机器ID和序列号三部分,性能高且趋势递增。但要注意时钟回拨问题,可通过记录上次生成时间戳或使用扩展版算法解决。 2、雪花算法的ID在时间戳维度是递增的,但同一毫秒多机器生成的ID可能乱序。如需严格单调递增,可用数据库号段模式:服务启动时申请一个ID范围,内存分配用完后再次申请,这样单服务内ID严格递增。 3、redo log是InnoDB的物理日志,崩溃恢复时重放提交的事务;undo log记录数据修改前的状态,用于回滚和MVCC读;binlog是MySQL Server层的逻辑日志,用于主从同步和数据备份。 4、主库将变更写入binlog,从库通过IO线程拉取binlog到relay log,再由SQL线程重放SQL实现同步。 5、优化索引时要减少回表和利用覆盖索引。索引失效常见于:违反最左前缀、对索引列计算、类型转换、LIKE左模糊匹配、OR连接非索引列等情况。 6、InnoDB索引用B+树实现,联合索引按字段从左到右排序。如果跳过左侧字段,因为b的值在全局无序,无法利用索引快速定位,导致失效。 7、当元素少且小时,用压缩列表节省内存;当元素多或大时,自动转为 "跳跃表+字典" 组合。跳跃表负责按分值排序,支持高效范围查询;字典负责成员到分值的映射,实现O(1)快速查分数。这种设计平衡了内存与性能。 8、跳表插入节点时,从最高层向右向下逐层搜索并记录小于目标的分值位置(update[]);随后随机生成新节点层高,创建节点并按层将其插入:每层链接到对应update[]节点之后,并指向其原后继;最后更新跳表的最大层高和节点总数,实现高效定位与平衡插入。 9、Redis有6种淘汰策略,常用的是allkeys-lru和allkeys-lfu。LRU淘汰最近最少访问的,LFU淘汰访问频率最低的。LFU更适合长期热点场景,而LRU对突发流量更敏感。 10、Redis用惰性删除+定期删除组合:访问key时检查过期,同时后台定期抽样清理过期key。当内存不足时,再根据淘汰策略主动删除数据。 11、TCP通过滑动窗口实现流量控制:接收方在ACK包中携带窗口大小。发送方根据这个窗口动态调整发送数据量,避免接收方缓冲区溢出。

全部评论

相关推荐

不愿透露姓名的神秘牛友
12-02 14:22
点赞 评论 收藏
分享
一面 202512021.MySQL索引2.MVCC3.Redis缓存击穿、缓存穿透、缓存雪崩4.使用Redis分布式锁需要考虑哪些问题(1)互斥,保证同一时间(2)防止死锁:过期时间+自动续期(3)防止锁被误删:先校验再删除(4)释放锁是原子操作(5)锁的续期5.Redis持久化:RDB+AOF(1)RDB:(2)AOF(3)混合6.kafka消息持久化7.RocketMQ和kafka的区别8.项目:分布式会话鉴权、RPC为什么使用TCP协议、RPC这个项目主要实现了什么?9.实习10.TCP和UDP区别11.UDP如何保证数据是正确的?在哪一层实现的?12,手撕:输入:l1 =[7,2,4,3],l2_[5,6,4]输出:[7,8,0,7]解释:7243+564=7807二面 202512051.介绍实习中比较有挑战性的工作2.Redis分布式锁是自己实现的还是第三方封装好的接口?--项目里其他人实现的?3.那你知道是怎么做的吗?--不知道4.自己想实习分布式锁,有什么思路?--首先要保证加锁和释放锁都是原子性的,锁的key,超时时间,支持重入5.微信支付的话,有个微信授权,这个微信授权过程是什么样的?比如说淘宝,支付可以选择支付方式,我怎么授权给淘宝??--其实这个我根本没听懂问什么?6.点评项目里缓存技术,使用了布隆过滤器的目的,为什么能解决缓存穿透的问题?7.前提是不是全部数据加载到布隆过滤器??如果数据量很多,全部加载到布隆过滤器??误判率增高,会不会影响效果??布隆过滤器里存数据,数据有删除的话,怎么解决??项目里用布隆过滤器内存多大??自己实现的还是第三方已有的?自己实现的内存有多大??误判率有多大??---给我问懵了😭8.为什么做RPC框架项目?为什么不采用已有的RPC?这个项目是怎么做的?有没有调研已有的RPC框架是怎么做的?和已有的RPC框架有什么区别?DUDDO底层协议是??有没有做过性能比对?你怎么知道你这个协议性能比较高?9.用到了很多中间件,了解程度,会不会更深层次的去了解这些组件?用的最多的哪个?Redis的底层机制,他的优势?10.Redis有持久化,能不能存储核心数据?能不能直接使用Redis当db,这样就没有缓存一致性问题了?--Redis的持久化都有数据丢失的风险11.什么情况下会丢失??-RDB:在上次持久化之后到下次持久化之前,如果宕机,会丢失数据;AOF:持久化的是写命令,AOF文件可能会损坏12.那mysql临时断电,会不会也有内存到数据库的时候数据丢失的风险?像redo undo这种日志也是在内存里,没刷到磁盘之前,数据库重启了,会不会有数据丢失的风险?13.你还有什么你的某些优势我没有了解到的?--尬住了。。
投递金山WPS等公司6个岗位
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务