2022届秋招数据分析高频知识点汇总---指标异动分析

指标异动分析:

指标异动就是某个或若此指标发生异常变动,比如某款短视频APP在某天的DAU突然上升了30%,远超过近若干天内最大涨幅,请问你会怎么分析并找出原因呢?

像这样的问题第一次遇到的时候可能没有什么思路,但细想一下无非是两个大方面的原因:

外部因素

节假日:比如指标变动的这一天是暑假刚刚开始,很多学生群体在学期期间没有时间玩短视频,但是放假之后就开始玩了,导致DAU突然上涨;

政策因素:比如疫情期间,政府或学校鼓励学生在这款APP上开展网上学习,也会突然有很多原来并不关注这款APP的家长和学生开始使用它,DAU就涨上去了;

内部因素

产品上线新功能:比如原来这款APP主要呈现搞笑视频,但这一天上线了可以上传带有美颜特效的视频作品,会吸引一大波原来不使用它的很多女性用户开始追风使用这款APP;

产品调性实现破圈:比如这款APP的受众一直都比较垂直,像B站,但19年的跨年晚会到20年青年节的《后浪》,都成功吸引了大批圈外用户的关注;

某项活动的成功:比如周杰伦入驻快手,并献出直播秀,在这两个节点上,大概率会有很多之前不用的快手的用户因为周杰伦而下载并使用快手。


1.1 数据的周期性波动

数据的周期性波动是一种自然形态的波动,例如,公众号文章的阅读量周内普遍高于周末阅读量。当拿到一个数据异动排查的问题,需要先确定这个问题是否是周期性波动的问题,如果是的话,排查工作就结束了!

1.2 业务内部因素影响

通常情况下内部影响都是来源于业务的活动,例如,运营经常组织的拉新、促活、促销等活动通常会造成某一段时间内的活跃用户数、销售额等指标高于平时。

举个简单的例子来说,在某段时间内业务推出了登陆奖励活动,该段时间的DAU增长了35%左右,但是活动结束之后DAU又回到了正常水平。这类由于业务内部主动行为造成的数据波动也是属于正常波动。(DAU:daily active user/MAU:month active user)

1.3 外部因素影响

除了业务内部行为造成的数据波动,当然还会有一些外部因素造成的数据波动,例如,天气、政策、竞对等各种因素,而对于这些外部因素的影响作为数据分析师也是无能为力的。

比如某款竞品在国外被禁了,公司产品作为替代品DAU瞬间暴涨。这就是由于政策因素影响带来的利好情况,虽然现实中大部分情况是负面的。

1.4 数据传输问题

数据波动还可能受到数据传输的影响,可能某天某个调度脚本挂了而造成数据缺失,因而造成了数据异动。所以面对数据波动问题,当我们排除数据周期性影响、内部因素影响以及外部因素影响之后,接下来就需要确定是否是数据传输问题而造成的数据波动。

排查数据传输问题而引起的数据异动可以根据数据传输的流程,逐个环节进行排查,定位到有问题的环节找到相应的负责人修复bug。




常见留存分析一般的分析框架:

1. 首先验证数据准确性和有效性;

2.要确认这个下降是否是真的异常。从留存环比和同比的角度看看具体下降多少。

3.定位异常


外因:

市场:大环境在变差

竞品:

周期性:是否具有周末周期效应,或者特殊节假日。

内因:

技术:crash率;是否有bug:404;502

一般的crash率是千分之4到千分之6

产品:分系统版本,分手机osv,分手机厂商,运营活动,上新有损用户体验的功能

不同系统版本时间的差异,如果是新版本可能是新版本上新功能

分手机厂商和osv,一般国内主流安卓手机是huawei,oppo,vivio,不同厂商的留存多少也有差异。

商业化:广告太多?影响用户体验

广告频次(总次数太多,相同广告太多?)

广告内容(分A类广告,B类广告)

广告加载是否出现问题

投放侧:5w1h(投放侧大多是新用户,所以会影响新用户留存)

who:用户画像是否波动(性别,地域,年龄分布)

when:投放时段(不同激活时间段用户占比分布变化也会影响留存)

0-5点(留存最差)

6-11点(留存居中)

12-17点(留存略高)

18-23点(留存最高)

where:媒体+渠道+投放位置(位置:信息流,详情页)

what:新激活用户当天行为,抽奖次数,停留时长,核心功能使用

why:投放目的是验证新功能?测试素材?获客?

how

吸引用户方式:计划,素材,(是否某个计划素材有问题,或者产量跟不上)

老计划或者老素材在衰退,新计划或者新素材新增产量跟不上

投放方式:双出价方式,或者ROI投放方式,深度转化方式等

头条投放平台在新建计划时,一般会设置次留目标值,这个目标值填的越高,实际次留理论上会越高,但是同时拿量会更难,二者要平衡。

老用户留存

用户生命周期

运营活动



日活(DAU)下降怎么办

第一步:确认数据真实性

在开始着手分析前,建议先确认数据的真实性。我们经常会遇到数据服务、数据上报、数据统计上的BUG,在数据报表上就会出现异常值。所以,找数据流相关的产品和研发确认下数据的真实性吧。


第二步:根据几个常见维度初步拆分数据


计算影响系数:每一项数据都要和以往正常值做对比,算出影响系数。

影响系数=(今日量-昨日量)/(今日总量-昨日总量)

影响系数越大,说明此处就是主要的下降点

以上是几种常见的初步拆分维度,通过初步拆分,定位原因大致范围。


第三步:异常范围定位后,进一步做假设

针对初步定位的影响范围,进行进一步的排查。分三个维度来做假设,建议针对数据异常问题专门建一个群,拉上相应的产品、技术、运营人员一起,了解数据异常时间点附近做了什么产品、运营、技术侧调整。

综合考虑以往数据异常原因、产品运营技术侧调整、初步定位的影响范围最可能由什么原因造成,再结合自身业务经验确定几个最可能的原因假设,给这些假设数据验证的优先级,逐一排查。


最后:细分假设,确立原因

除了上述,可以细分分析的维度实在太多,逻辑上说核心点在于一个假设得到验证后,在这个假设为真的基础上,进行更细维度的数据拆分。我们需要记住这种分析方式,当猜测是某种原因造成数据异常时,只要找到该原因所代表的细分对立面做对比,就可以证明或证伪我们的猜测,直到最后找到真正原因。


#高频知识点汇总##学习路径#
全部评论
谢谢楼主,学到了
点赞 回复 分享
发布于 2022-03-25 13:58
感谢楼主分享!
点赞 回复 分享
发布于 2022-01-12 19:55

相关推荐

04-06 11:24
已编辑
太原学院 C++
点赞 评论 收藏
分享
评论
13
80
分享

创作者周榜

更多
牛客网
牛客企业服务