牛宝体育新闻

大数据分析中有哪牛宝体育些常见的大数据分析模型?

2023-07-18
浏览次数:
返回列表

  行为事件分析法来研究某行为事件的发生对企业组织价值的影响以及影响程度。企业借此来追踪或记录的用户行为或业务过程,如用户注册、浏览产品详情页、成功投资、提现等,通过研究与事件发生关联的所有因素来挖掘用户行为事件背后的原因、交互影响等。

  在日常工作中,运营、市场、产品、数据分析师根据实际工作情况而关注不同的事件指标。如最近三个月来自哪个渠道的用户注册量最高?变化趋势如何?各时段的人均充值金额是分别多少?上周来自北京发生过购买行为的独立用户数,按照年龄段的分布情况?每天的独立 Session 数是多少?诸如此类的指标查看的过程中,行为事件分析起到重要作用。

  行为事件分析法具有强大的筛选、分组和聚合能力,逻辑清晰且使用简单,已被广泛应用。行为事件分析法一般经过事件定义与选择、下钻分析、解释与结论等环节。

  漏斗分析是一套流程分析,它能够科学反映用户行为状态以及从起点到终点各阶段用户转化率情况的重要分析模型。

  漏斗分析模型已经广泛应用于流量监控、产品目标转化等日常数据运营工作中。例如在一款产品服务平台中,直播用户从激活APP开始到花费,一般的用户购物路径为激活APP、注册账号、进入直播间、互动行为、礼物花费五大阶段,漏斗能够展现出各个阶段的转化率,通过漏斗各环节相关数据的比较,能够直观地发现和说明问题所在,从而找到优化方向。对于业务流程相对规范、周期较长、环节较多的流程分析,能够直观地发现和说明问题所在。

  留存分析是一种用来分析用户参与情况/活跃程度的分析模型,考察进行初始行为的用户中,有多少人会进行后续行为。这是用来衡量产品对用户价值高低的重要方法。留存分析可以帮助回答以下问题:

  一个新客户在未来的一段时间内是否完成了您期许用户完成的行为?如支付订单等;某个社交产品改进了新注册用户的引导流程,期待改善用户注册后的参与程度,如何验证?想判断某项产品改动是否奏效,如新增了一个邀请好友的功能,观察是否有人因新增功能而多使用产品几个月?关于留存分析,我写过详细的介绍文章,供您参考:解析常见的数据分析模型——留存分析。

  分布分析是用户在特定指标下的频次、总额等的归类展现。它可以展现出单用户对产品的依赖程度,分析客户在不同地区、不同时段所购买的不同类型的产品数量、购买频次等,帮助运营人员了解当前的客户状态,以及客户的运转情况。如订单金额(100 以下区间、100 元 - 200元区间、200 元以上区间等)、购买次数(5 次以下、5 - 10次、10 以上)等用户的分布情况。

  分布分析模型的功能与价值:科学的分布分析模型支持按时间、次数、事件指标进行用户条件筛选及数据统计。为不同角色的人员统计用户在一天/周/月中,有多少个自然时间段(小时/天)进行了某项操作、进行某项操作的次数、进行事件指标。

  即应用一种特殊高亮的颜色形式,显示页面或页面组(结构相同的页面,如商品详情页、官网博客等)区域中不同元素点击密度的图示。包括元素被点击的次数、占比、发生点击的用户列表、按钮的当前与历史内容等因素。

  点击图是点击分析方法的效果呈现。点击分析具有分析过程高效、灵活、易用,效果直观的特点。点击分析采用可视化的设计思想与架构,简洁直观的操作方式,直观呈现访客热衷的区域,帮助运营人员或管理者评估网页的设计的科学性。

  用户路径分析,顾名思义,用户在APP或网站中的访问行为路径。为了衡量网站优化的效果或营销推广的效果,以及了解用户行为偏好,时常要对访问路径的转换数据进行分析。

  以电商为例,买家从登录网站/APP到支付成功要经过首页浏览、搜索商品、加入购物车、提交订单、支付订单等过程。而在用户真实的选购过程是一个交缠反复的过程,例如提交订单后,用户可能会返回首页继续搜索商品,也可能去取消订单,每一个路径背后都有不同的动机。与其他分析模型配合进行深入分析后,能为找到快速用户动机,从而引领用户走向最优路径或者期望中的路径。

  用户分群即用户信息标签化,通过用户的历史行为路径、行为特征、偏好等属性,将具有相同属性的用户划分为一个群体,并进行后续分析。我们通过漏斗分析可以看到,用户在不同阶段所表现出的行为是不同的,譬如新用户的关注点在哪里?已购用户什么情况下会再次付费?因为群体特征不同,行为会有很大差别,因此可以根据历史数据将用户进行划分,进而再次观察该群体的具体行为。这就是用户分群的原理。

  顾名思义,根据用户自身属性对用户进行分类与统计分析,比如查看用户数量在注册时间上的变化趋势、查看用户按省份的分布情况。用户属性会涉及到用户信息,如姓名、年龄、家庭、婚姻状况、性别、最高教育程度等自然信息;也有产品相关属性,如用户常驻省市、用户等级、用户首次访问渠道来源等。

  属性分析模型的价值是什么?一座房子的面积无法全面衡量其价值大小,而房子的位置、风格、是否学区、交通环境更是相关的属性。同样,用户各维度属性都是进行全面衡量用户画像的不可或缺的内容。

  属性分析主要价值在:丰富用户画像维度,让用户行为洞察粒度更细致。科学的属性分析方法,可以对于所有类型的属性都可以将“去重数”作为分析指标,对于数值类型的属性可以将“总和”“均值”“最大值”“最小值”作为分析指标;可以添加多个维度,没有维度时无法展示图形,数字类型的维度可以自定义区间,方便进行更加精细化的分析。

  泻药!之前我吐血整理数据分析师需要掌握的35个分析模型,包括分析企业机会、优劣、挑战的SWOT模型;分析企业管理及执行分析的5W2H模型;用户价值分析的RFM模型等,让你快速上道。链接在此内容很丰富,请认真看。

  今天基于题主的互联网产品,我来详细介绍几个会频繁使用的分析模型。看完就会用啦

  AIDA是4个英文单词的首字母,分别指Attention注意、Interest兴趣、Desire欲望、Action行为。模型的意思是,当你希望用户购买你的产品或服务时,你应该先吸引他的注意力,再引起他的兴趣,然后勾起他的欲望,最终促成他的行动。

  比如说,拼多多的广告,就用一支非常洗脑的广告神曲引起了你的注意,然后用“3亿人都在用”这样的广告词勾起你的兴趣,继而又用便宜的价格激发你购买的欲望,最后用一些限时拼单等等有紧迫感的活动,促进你下单。

  近年来,在互联网领域异常火爆的模型,又被称为海盗模型。AARRR,实际上是5个英文单词的首字母,分别代表了Acquisition用户获取、Activation促活、牛宝体育Retention用户留存、Revenue转化、Referral转介绍这5个步骤。

  以淘宝来举例,说明这个模型。你通过各种广告得知了淘宝,并下载注册了淘宝账号,这个呢就叫用户获取。注册之后,淘宝会通过推送通知消息、短信等,来不断刺激你登录,这就叫用户促活,主要目的就是希望你不要注册了就再也不为。然后淘宝还会通过各种内容,比如直播、会员等形式,来增强你和淘宝的粘性,这个叫用户留存。接着,它还会根据算法,推荐你喜欢的商品,或者推送优惠信息,促使你下单,这个叫转化。最后,淘宝还通过推出分享等功能,来激发你把平台上的商品转发出去,以带来新用户,这个叫做转介绍。

  过去在广告营销界流传着这样一句话:“我知道花在广告上的钱,有一半是浪费的,问题是,我不知道是哪一半。”

  这种情况,在如今这个时代,已经越来越少了。每一个推广渠道,都能看见曝光量、用户点击量、牛宝体育用户注册量,甚至购买量等等。市场人员可以通过各个渠道的数据追踪和分析,及时优化渠道的选择和广告内容。根据这个营销漏斗定位问题,要么优化产品的落地页、要么增强目标投放人群筛选的精准度等,把广告花在优质的、有效的渠道上。

  当然,最后还是要说,模型只是前人总结出的方式方法,对于我们实际工作中解决问题有引导作用,但是不可否认,具体问题还要具体分析大数据,针对不同的情况需要进行不同的改进,希望成为一个数据专家,最重要的一点还是多实践!实践才是真理!

  关于亿信华辰亿信华辰是中国专业的智能数据产品与服务提供商,一直致力于为政企用户提供从数据采集、存储、治理、分析到智能应用的智能数据全生命周期管理方案,帮助企业实现数据驱动、数据智能,已积累了8000多家用户的服务和客户成功经验,为客户提供数据分析平台、数据治理系统搭建等专业的产品咨询、实施和技术支持服务。

  事件指的是用户操作产品的一个行为,即用户在产品内做了什么事情,转义成描述性语言就是“操作+对象”。事件分析是对用户行为事件的指标进行统计、维度细分、筛选等分析操作。

  产品和运营同学如何才能对网站每天的 PV、UV、DAU 等总体数据有一个直观的把握,包括它们的数值以及趋势?

  面对复杂的数据,单从数字来看,不仅效率低下,而且难以直观的发现数据背后所展现的趋势,应该怎么办?

  当做了第三方付费渠道推广后,运营同学如何才能有效比较不同渠道带来的流量?

  产品优化和运营是一个动态的过程,我们需要不断监测数据,调整产品设计或运营方法,然后继续监测效果。

  分布分析功能,主要用来了解不同区间事件发生频次,不同事件计算变量加和,以及不同页面浏览时长等区间的用户数量分布。

  Alice是某个电商产品经理,比较关注用户浏览商品详情页的以下几个场景:

  希望了解最近一周浏览商品详情页的用户,例如1-5次, 6-10次 ... 不同区间的用户量分布有多少;

  希望知道最近一段时间内,每日用户浏览商品详情页人均数量、最大值、最小值、中位数(50%浏览商品详情页的用户浏览小于等于多少页)、25分位(25%浏览商品详情页的用户浏览小于等于多少页)、75分位(75%浏览商品详情页的用户浏览小于等于多少页)的趋势;

  希望对比渠道来源A\B\C三个主要广告渠道带来的用户,浏览商品详情页1-5次;6-10次等等不同区间的用户量分布分别有多少;

  希望对比高消费和低消费的两个用户群体浏览商品详情页1-5次, 6-10次, ... , 不同区间的用户量分布分别有多少。

  您可以根据自己要解决的业务问题,来定义关注的用户群体,还可以在 GrowingIO 平台中通过将分群套用在事件分析、漏斗分析与留存分析等分析工具中进一步分析;或者通过运营手段对这部分人群进行运营。

  比如在考虑注册转化率的时候,需要区分移动端和 Web 端,以及美国用户和中国用户等不同场景。这样可以在渠道策略和运营策略上,有针对性地进行优化。

  漏斗分析是一套流程式的数据分析模型,通过将用户行为起始的各个行为节点作为分析模型节点,来衡量每个节点的转化效果,是转化分析的重要工具。

  通过漏斗分析可以从先到后的顺序还原某一用户的路径,分析每一个转化节点的转化数据;

  所有互联网产品、数据分析都离不开漏斗,无论是注册转化漏斗,还是电商下单的漏斗,需要关注的有两点。第一是关注哪一步流失最多,第二是关注流失的人都有哪些行为。

  行为轨迹是进行全量用户行为的还原。只看 PV、UV 这类数据,无法全面理解用户如何使用你的产品。了解用户的行为轨迹,有助于运营团队关注具体的用户体验,发现具体问题,根据用户使用习惯设计产品,投放内容。

  留存为什么重要?留存是 AARRR 模型中重要的环节之一,只有做好了留存,才能保障新用户在注册后不会白白流失。有时候我们光看日活(DAU),会觉得数据不错,但有可能是因为近期有密集的推广拉新活动,注入了大量的新用户,但是留下来的用户不一定在增长,可能在减少,只不过被新用户数掩盖了所以看不出来。这就好像一个不断漏水的篮子,如果不去修补底下的裂缝,而只顾着往里倒水,是很难获得持续的增长的。

  一般我们讲的留存率,是指「目标用户」在一段时间内「回到网站/App 中完成某个行为」的比例。常见的指标有次日留存率、七日留存率、次周留存率等。比如:某个时间获取的「新用户」 的 「次日留存率」常用来度量拉新效果。

  热图是以网站页面中的元素的点击率(元素点击次数/当前页面 PV)为基础的数据的图形表示。通过聚合用户行为,热图可以让人一目了然地了解人们如何与网站页面进行交互,这有助于识别用户行为趋势并优化进一步流程。 您的网站存在以便人们可以实现特定的目标,如查找信息、注册服务、购买产品等。当人们进入您的网站但很难找到或使用他们正在寻找的东西时,他们会感到沮丧,最糟糕的情况是,他们离开你的网站不再回来。

  通过客户的“温度-健康度模型”实现用户分群。下图的横坐标“健康指数”代表用户的活跃度;纵坐标的“温度指数”代表用户转化的可能性。

  该模型一般用户企业级 SaaS 企业中的客户成功部门。有了该模型,我们就可以对不同分群的用户进行差异化的运营策略。左上角的用户活跃度不高,但是付费转化的可能性很高;我们需要对用户加强培训,提高其使用频率。右下角的用户非常活跃,但是付费的可能性很低,值得我们深入思考背后的原因。

  归因分析要解决的问题就是广告效果的产生,其功劳应该如何合理的分配给哪些渠道。常见的归因分析方法有:线性归因、首次归因、末次归因、基于位置归因、时间衰减归因等。

  假设一个丹丹购买口红的场景,在依次浏览了头条、微博上的广告后,她参加了小红书上的注册促销活动,又收到了优惠券,于是在百度上搜索 App,完成下单购买。

  如果按照 ROI 分析的逻辑,我们会把所有的权重算在百度这一渠道上,这是典型的以偏概全。

  知友福利:点击免费试用GrowingIO,体验快速自定义生成各种数据分析模型

  数据角度的模型一般指的是统计或数据挖掘、机器学习、人工智能等类型的模型,是纯粹从科学角度出发定义的。

  在面对海量数据或大数据进行数据挖掘时,通常会面临“维度灾难”,原因是数据集的维度可以不断增加直至无穷多,但计算机的处理能力和速度却是有限的;另外,数据集的大量维度之间可能存在共线性的关系,这会直接导致学习模型的健壮性不够,甚至很多时候算法结果会失效。因此,我们需要降低维度数量并降低维度间共线性影响。

  数据降维也被成为数据归约或数据约减,其目的是减少参与数据计算和建模维度的数量。数据降维的思路有两类:一类是基于特征选择的降维,一类是是基于维度转换的降维。

  回归是研究自变量x对因变量y影响的一种数据分析方法。最简单的回归模型是一元线性回归(只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示),可以表示为Y=β0+β1x+ε,其中Y为因变量,x为自变量,β1为影响系数,β0为截距,ε为随机误差。

  回归分析按照自变量的个数分为一元回归模型和多元回归模型;按照影响是否线性分为线性回归和非线. 聚类

  聚类是数据挖掘和计算中的基本任务,聚类是将大量数据集中具有“相似”特征的数据点划分为统一类别,并最终生成多个类的方法。聚类分析的基本思想是“物以类聚、人以群分”,因此大量的数据集中必然存在相似的数据点,基于这个假设就可以将数据区分出来,并发现每个数据集(分类)的特征。

  分类算法通过对已知类别训练集的计算和分析,从中发现类别规则,以此预测新数据的类别的一类算法。分类算法是解决分类问题的方法,是数据挖掘、机器学习和模式识别中一个重要的研究领域。

  关联规则学习通过寻找最能够解释数据变量之间关系的规则,来找出大量多元数据集中有用的关联规则,它是从大量数据中发现多种数据之间关系的一种方法,另外,它还可以基于时间序列对多种数据间的关系进行挖掘。关联分析的典型案例是“啤酒和尿布”的捆绑销售,即买了尿布的用户还会一起买啤酒。

  时间序列是用来研究数据随时间变化趋势而变化的一类算法,它是一种常用的回归预测方法。它的原理是事物的连续性,所谓连续性是指客观事物的发展具有合乎规律的连续性,事物发展是按照它本身固有的规律进行的。在一定条件下,只要规律赖以发生作用的条件不产生质的变化,则事物的基本发展趋势在未来就还会延续下去。

  大多数数据挖掘或数据工作中,异常值都会在数据的预处理过程中被认为是“噪音”而剔除,以避免其对总体数据评估和分析挖掘的影响。但某些情况下,如果数据工作的目标就是围绕异常值,那么这些异常值会成为数据工作的焦点。

  数据集中的异常数据通常被成为异常点、离群点或孤立点等,典型特征是这些数据的特征或规则与大多数数据不一致,呈现出“异常”的特点,而检测这些数据的方法被称为异常检测。

  协同过滤(Collaborative Filtering,CF))是利用集体智慧的一个典型方法,常被用于分辨特定对象(通常是人)可能感兴趣的项目(项目可能是商品、资讯、书籍、音乐、帖子等),这些感兴趣的内容来源于其他类似人群的兴趣和爱好,然后被作为推荐内容推荐给特定对象。

  主题模型(Topic Model),是提炼出文字中隐含主题的一种建模方法。在统计学中,主题就是词汇表或特定词语的词语概率分布模型。所谓主题,是文字(文章、话语、句子)所表达的中心思想或核心概念。

  路径分析、漏斗分析、归因分析和热力图分析原本是网站数据分析的常用分析方法,但随着认知计算、机器学习、深度学习等方法的应用,原本很难衡量的线下用户行为正在被识别、分析、关联、打通,使得这些方法也可以应用到线下客户行为和转化分析。

  业务模型指的是针对某个业务场景而定义的,用于解决问题的一些模型,这些模型跟上面模型的区别在于场景化的应用。

  会员细分模型、会员价值度模型、会员活跃度模型、会员流失预测模型、会员特征分析模型和营销响应预测模型

  商品价格敏感度模型、新产品市场定位模型、销售预测模型、商品关联销售模型、异常订单检测模型、商品规划的最优组合

  情感分析模型、搜索优化模型、文章关键字模型、主题模型、垃圾信息检测模型。

  基于多维事件模型,会形成一些常见的数据分析方法。在用户行为领域,对这些数据分析方法的科学应用进行理论推导, 能够相对完整地揭示用户行为的内在规律。基于此帮助企业实现多维交叉分析,让企业建立快速反应、适应变化的敏捷商 业智能决策。

  事件分析法是用来研究用户的某个、某些行为事件本身特征的方法,企业借此来追踪、记录用户行为或业务过程。事件分 析是所有分析模型中最基础的一种,它是指对具体的行为事件,进行指标加工的一种分析方法,常见的指标计算规则为行 为事件发生的人数、次数、人均次数,以及针对行为事件的属性特征进行特殊运算,如去重、求和、求均值等。以互联网 金融行业常见的用户投资为例,通过对“投资成功”的事件分析 ,可统计每日成交的投资产品订单数、投资总额,并且可 以研究投资总额的趋势、周期 , 及时洞察数据中的异常点。通过研究与事件发生关联的所有因素来挖掘用户行为事件背后 的特点、趋势及异常等现象。

  对比事件分析来说,漏斗分析其实是一套流程分析,它不但可以整体性的反映用户在一定时间周期内,浏览网站或者 APP 中从起点到终点的转化率,而且还可以分析浏览过程中每一次跳转所产生的留存和流失,这样就能够直观地发现异常数据, 从而通过分析根因找到问题所在,最后通过优化该环节来达到提升转化率的目标。

  漏斗分析模型已经广泛应用于渠道来源分析、新用户激活、核心主流程优化、搜索功能优化等日常数据运营工作中。例如 在一款直播平台软件中,直播用户从激活 APP 开始到打赏主播,用户核心路径为激活 APP、注册账号、浏览列表页、进入 直播间、产生互动行为和完成主播打赏。如果整体转化率偏低,那么使用漏斗分析能够展现出各个环节的转化率,通过漏 斗各环节相关数据的对比分析,可以直观地发现问题所在,从而找到优化方向。牛宝体育

  这里需要注意的是,我们跟踪整个漏斗的转化过程,是以用户为单位将步骤串联起来,并不是只把每个步骤的发生次数做 一个简单的计数,因为使用漏斗的目标之一是将潜在客户转化为目标用户,核心是对用户的分析。另外进入到后续步骤中 的用户,一定是完成了所有前序步骤。例如漏斗一共有五步,如果有用户完成了第一步、第三步和第五步,跳过了漏斗模 型中的第二步和第四步,也不能算作一次转化。

  其次要选择合适的时间窗口。如果没有时间窗口的话,那么用户有可能一天完成漏斗流程,也有可能一个月完成漏斗流程, 没有时间的限制,漏斗的作用也要大打折扣了。至于具体什么时间合适要根据业务来判断。如我们要看当天秒杀活动的转化, 那么窗口期建议设置为一天,太长就没办法算作是活动的转化 ;但对于证券开户流程,不但要准备多种材料,还需要经过 审核。如果开户漏斗的窗口期设置太短,可能审核都很难完成。

  如果你很明确的知道用户的切入点,那么这时候需要选择固定的起始事件,如果有明确的结果,那么这时候需要倒推时, 看有什么事件影响了这个结果,这时候就需要选择固定的结束事件。例如当产品同学需要验证流量分发是否满足预期时, 可以选择起始事件为目标事件;另外我们从漏斗分析中找出的“流失用户”也可以通过设置初始事件来观察用户的去向。 而如果我们要考虑一些重要行为的来源有哪些的话,那么就可以选择目标事件为结束事件,来看前序事件有哪些。

  其实看用户行为路径的时候我们已经有了相对明确的问题,那么这时候需要把与问题无关的一些事件刨除,即使被刨除的 这些事件有可能发生。因为这些不是观察的重点,而且会影响我们最终的判断,我们需要做的是聚焦在相关事件即可。另外, 由于点击事件与页面浏览往往是相伴而生的,一般情况下可根据分析情况选择其一即可,这样可以在更少的步骤内,更高 效的发现路径的规律。4. 留存分析

  随着流量红利的进一步收缩,存量市场的博弈更加显著,老用户的经营对于企业生存来说显得至关重要。另一方面,高昂 的获客成本让不少互联网创业者们陷入新客获取难的窘境,花费极高成本所获取的客户,可能仅打开一次 APP 或完成一次 交易后就迅速流失,导致前期的营销投入打了水漂。

  在这样的大背景下,用户的留存问题成了许多企业和业务的亟待解决的共性问题。客户当前的留存情况如何衡量,如何增 加客户黏性,延长每一个客户的生命周期。针对此类问题我们将通过留存分析模型一探究竟。

  留存分析是一种用来分析用户参与情况和粘性的分析模型,考察发生了初始行为的用户中,有多少人会在后续的几天里面 发生后续行为。这是用来衡量产品对用户价值高低的重要方法。留存分析可以帮助我们回答一些问题,比如某一天进来的 新用户群体,在未来的一段时间内每天分别有多少人完成目标转化行为 ?某个社交产品改进了新注册用户的引导流程,改 善前后新用户的留存是否有改善 ?想判断某项产品改动是否奏效,如新增了一个邀请好友的功能,观察是否有人因新增功 能而延长使用产品时间 ?

  如果把网站或 APP 比喻成一个商场,那互联网用户的行为就如同逛街的顾客,他们在产品中的访问通常和逛商场一样是一 系列连续行为。对于网站或者 APP 而言,用户一系列行为是一次访问,也就是一个 Session。Session 分析法是用来分析 把用户单点发生的行为串联起来形成一个整体的前提下,Session 整体或者 Session 中某个特定事件的访问特征。常见的 指标分为 Session 整体的次数、人数、时长、深度、跳出率等,以及 Session 中某个特定事件的次数、人数、时长、退出率等。

  以用户在某个在线教育网站的访问为例,用户在一次访问中,诸如“用户平均会来几次”、“每次平均逛了几个页面”、“每次来平均待多久”、“某个具体页面用户平均停留多长时间”这样的问题都需要通过 Session 分析解决。通过 Session 分析, 可统计用户在网站或者 APP 中的整体访问深度大数据、以及某些特殊节点的访问情况,从而在产品或者运营层面输入优化策略。

  热力分析,即应用一种特殊高亮的颜色、数据标注等,显示页面或页面组(结构相同的页面,如商品详情页、官网博客等) 区域中不同元素点击密度、触达率、停留分布等特征。热力分析法主要用来分析用户在页面上的点击、触达深度等情况, 并以直观的效果展示给使用者 , 它是互联网行业常用的一种分析模型,比较直观的表现了用户在产品页面上的浏览偏好, 有力的说明了用户和网页的交互情况。

  热力分析具有分析过程高效、灵活、易用和效果直观的特点。采用可视化的设计思想与架构,以简洁直观的操作方式,呈 现访客热衷的区域,帮助运营人员或产品人员评估网页设计的科学性。7. 归因分析

  在 PC 互联网时代,一个网站吸引新用户的主要方式之一就是投放线上广告。而同样一篇广告可以投放至多个渠道,一个 用户也可能在不同渠道商多次看到广告才发生购买。这时候用户虽然是最后一次看到广告才发生点击,但前面的几次曝光 可能给用户留下了印象,建立了心理认知,因此对用户的本次点击亦有贡献。那么如何将用户点击行为的“贡献”合理地 分配到每一个渠道呢?这便是渠道归因要解决的问题。通过渠道归因来衡量渠道的效果,反过来可以指导业务人员在渠道 投放时合理分配投入。

  随着移动互联网的兴起,业务的形态越来越复杂,站内归因(也常被称作“坑位归因”)的需求日趋增多。以自营电商为 例:同样的一个商品,可能会在站内多处“坑位”产生曝光,比如:首页 Banner 的特卖活动页、商品详情页的相关推荐、 购物车页面下方的推荐列表中。运营人员会需要知道这些“坑位”对商品最终成单产生的“贡献”分别是多大,从而指导 站内的商品运营工作,例如将主推的商品推至成单贡献度高的坑位中,给予更多的曝光从而带来更多的转化。

  首先,启动 APP,进入首页,先行搜索,在搜索结果列表页看到了商品 A,浏览了商品 A 的详情,觉得不错,但是并未购买, 退出 APP。然后,再次启动 APP,看到首页顶部 Banner,点击进入活动分会场,浏览过程中再次看到商品 A,点击再次 查看商品 A 详情。接着,直接退出到了首页,底部推荐列表中推荐了一篇商品 A 的用户评论,点击进入,再次查看商品 A 的详细信息。最后,下定决心,购买了商品 A。

  以上过程是一个非常典型的用户购买决策路径,在整个过程中用户一共三次浏览到了商品 A 的详情页,均通过不同的入口 发生访问。如果将这个用户的成单转化的功劳分配到对应的 3 个坑位上,实际上这类问题其实并没有标准答案。8. 间隔分析

  在一些场景下,通过对间隔时长分布的观察,可以得到对产品或者用户的洞察,从而指导我们发生下一步的业务动作。例如, 通过对用户开始注册和注册成功两个行为之间的时长分布,我们可以获知用户完成注册普遍所需要花费的时长,当某天注 册成功率没有发生明显波动,而时长的分布整体变长时,我们则需要检查注册验证码的短信通道是否畅通、后台注册接口 是否正常等等。

  分布分析是用户在特定指标下的频次、总额等特征的结构化分段展现。分布分析是了解数据分布表现的主要方法,往往能 通过对数据结构的分层分析,判断极端数值的占比、对整体数据的影响,同时了解数据分布的集中度,以及主要的数据分 布的区间段是什么。从事件在不同维度中的分布来观察,我们可以了解该事件除了累计数量和频次这些简单指标之外,洞察数据在分布特征上的特点,便于了解业务的健康度、分层结构等信息。

  常见的分布模型一般包含以下类型:事件频率、一天内的时间分布、消费金额的区分等。同时,在设计分布区间时,还需 要支持客户自定义区间,这样用户才可以找到最适合的区间分布。总体来说,分布分析价值主要体现在以下几个方面:

  对同一指标下有关数据进行统计与分析,帮助企业从中挖掘用户访问规律,企业可以将规律与实际产品策略相结合,进一 步修正和重新制定产品策略。同时还可以分析某个功能的使用情况,来判断用户对某个功能的使用率。如果某些功能的使 用率偏低,那么我们就可以进行产品端或运营端优化。第二,除去极值影响,数据更接近整体真实表现牛宝体育。分布分析的另外一个价值点就在于,对于某些因为极大值或者极小值而影响大部分用户数据表现的情况来说,我们可以快 速发现最大值和最小值的分布次数,而其他大部分用户都分布在一个相对聚集的区间,从而判断大部分用户的分布情况。第三,快速识别核心用户群体,资源配置有的放矢。可以通过分布分析来找出某些核心功能的深度使用者,这些都是企业的核心用户。核心用户群体是对企业价值贡献最大的 用户群体,是企业最大的利润来源。在此基础上,企业可以通过优化资源配置,以最小成本实现企业利润最大化。10. 属性分析

  属性分析通过对用户各类特征进行标示,从而了解用户的属性,或者属叉的分布结构,进而可以对用户进行分层标记, 以便进行后续的产品、运营动作。属性分析可对基础属性、社会关系、行为特征、业务表现特征等进行结构分析。基础属 性包含姓名、年龄、家庭、婚姻状况、性别、最高教育程度等;社会相关包含已婚未婚、有无小孩等属性;行为特征包含 注册时间、用户首次访问渠道来源等;而业务相关属性则是从业务数据中提取,如业务为健身相关,那么可能会包含体脂率等。

  属性分析的价值主要体现在丰富用户画像维度,让用户行为洞察粒度更细。在事件——用户的数据模型中,用户一直处于 从属角色。很大原因是我们对于用户属性分析还不够深。如果我们有足够的用户属性的话,那么这些用户即使没有触发事件, 我们也可以通过属性来推断出一些可能会出现的场景,然后用相关的运营或产品动作来验证。

  那么既然属性这么重要,属性可以怎么采集呢?一般来说包含以下几种来源:一是用户直接填写,我们在很多场景都会填 写自己的地址、兴趣爱好、出生年月等,这些都可以生成属性。二是可以通过已有特征推断,比如说用户填写的地址有办 公楼标签,那么我们可以认为他是商务人士等。三是通过身边的人来推测,这个和协同过滤比较类似,用户 B 和用户 A 行 为相似,所以可以把用户 A 的属性标签打到用户 B 的身上。

搜索