数据分析面试题及答案
对于数据分析的面试者而言,在面试前做好面试准备,提前了
解面试题及答案很重要。下面已经为你们了数据分析面试题及答案,
希望可以帮到你。
布朗族一、异常值是指什么?请列举1种识别连续型变量异常值的方法?
隔岸歌曲异常值(Outlier) 是指样本中的个别值,其数值明显偏离所属
样本的其余观测值。在数理统计里一般是指一组观测值中与平均值
的偏差超过两倍标准差的测定值。
如何破解电脑密码Grubbs’ test(是以Frank E. Grubbs命名的),又叫maximum normed residual test,是一种用于单变量数据集异常值识别的统
计检测,它假定数据集正态分布的总体。总体标准差σ,在五种
检验法中,优劣次序为:t检验法、格拉布斯检验法、峰度检验
法、狄克逊检验法、偏度检验法。
二、什么是聚类分析?聚类算法有哪几种?请选择一种详细描述
其计算原理和步骤。聚类分析(cluster analysis)是一组将研究对
象分为相对同质的组(clusters)的统计分析技术。聚类分析也叫
分类分析(classification analysis)或数值分类(numerical taxonomy)。聚类与分类的不同在于,聚类所要求划分的类是的。
聚类分析计算方法主要有:层次的方法(hierarchical method)、划分方法(partitioning method)、基于密度的方法(density-based method)、基于网格的方法(grid-based method)、
基于模型的方法(model-based method)等。其中,前两种算法是利
用统计学定义的间隔进展度量。
k-means 算法的工作过程说明如下:首先从n个数据对象任意
选择 k 个对象作为初始聚类中心;而对于所剩下其它对象,那么根
据它们与这些聚类中心的相似度(间隔),分别将它们分配给与其最相似的(聚类中心所代表的)聚类;然后再计算每个所获新聚类的聚类中心(该聚类中所有对象的均值);不断重复这一过程直到标准测度函数开始收敛为止。一般都采用均方差作为标准测度函数. k个聚类具有以下特点:各聚类本身尽可能的紧凑,而各聚类之间尽可能的分开。
墙壁开关怎么接线其流程如下:
(1)从 n个数据对象任意选择 k 个对象作为初始聚类中心;
(2)根据每个聚类对象的均值(中心对象),计算每个对象与这些中心对象的间隔;并根据最小间隔重新对相应对象进展划分;
(3)重新计算每个(有变化)聚类的均值(中心对象);
(4)循环(2)、(3)直到每个聚类不再发生变化为止(标准测量函数收敛)。
优点:本算法确定的K 个划分到达平方误差最小。当聚类是密集的,且类与类之间区别明显时,效果较好。对于处理大数据集,这个算法是相对可伸缩和高效的,计算的复杂度为 O(NKt),其中N 是数据对象的数目,t是迭代的次数。一般来说,K<
一、根据要求写出SQL
表A构造如下:
MemberID (用户的ID,字符型)
Logtime (用户访问页面时间,日期型(只有一天的数据))黑芝麻的功效与作用及食用方法
URL (访问的页面地址,字符型)
要求:提取出每个用户访问的第一个URL(按时间最早),形成一个新表(新表名为B,表构造和表A一致)
create table B as select MemberID, min(Logtime), URL from A group
by MemberID ;
二、销售数据分析
以下是一家B2C电子商务网站的一周销售数据,该网站主要用户是办公室女性,销售额主要集中在5种产品上,如果你是这家公司的分析师,
a) 从数据中,你看到了什么问题?你觉得背后的原因是什么?
b) 如果你的老板要求你提出一个运营改良方案,你会怎么做?
表如下:一组每天某网站的销售数据
a) 从这一周的数据可以看出,周末的销售额明显偏低。这其中的原因,可以从两个角度来看:站在消费者的角度,周末可能不用上班,因而也没有购置该产品的欲望;站在产品的角度来看,该产品不能在周末的时候引起消费者足够的注意力。
b) 针对该问题背后的两方面原因,我的运营改良方案也分两方面:一是,针对消费者周末没有购置欲望的心理,进展引导提醒消费者周末就应该准备好该产品;二是,通过该产品的一些类似于打折促销等活动来提升该产品在周末的人气和购置力。
三、用户调研
某公司针对A、B、C三类客户,提出了一种统一的改良方案,用于提升客户的周消费次数,需要你来制定一个事前试验方案,来支持决策,请你思考以下问题:
a) 试验需要为决策提供什么样的信息?
c) 按照上述目的,请写出你的数据抽样方法、需要采集的数据指标项,以及你选择的统计方法。
a) 试验要能证明该改良方案能显著提升A、B、C三类客户的周消费次数。
b) 根据三类客户的数量,采用分层比例抽样;
需要采集的数据指标项有:客户类别,改良方案前周消费次数,改良方案后周消费次数; 选用统计方法为:分别针对A、B、C 三类客户,进展改良前和后的周消费次数的,两独立样本T-检验(two-sample t-test)。沛
1、海量日志数据,提取出某日访问百度次数最多的那个IP。
首先是这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中。注意到IP是32位的,最多有个2^32个IP。同样可以采用映射的方法,比方模1000,把整个大文件映射为1000个小文件,再出每个小文中出现频率最大的IP(可以采用hashmap 进展频率统计,然后再出频率最大的几个)及相应的频率。然后再在这1000个最大的IP中,出那个频率最大的IP,即为所求。
或者如下阐述:
算法思想:分而治之+Hash
IP地址最多有2^32=4G种取值情况,所以不能完全加载到内存中处理;
可以考虑采用“分而治之”的思想,按照IP地址的
Hash(IP)24值,把海量IP日志分别存储到1024个小文件中。这样,每个小文件最多包含4MB个IP地址;
对于每一个小文件,可以构建一个IP为key,出现次数为value的Hash map,同时记录当前出现次数最多的那个IP地址;
可以得到1024个小文件中的出现次数最多的IP,再依据常规的排序算法得到总体上出现次数最多的IP;
2、搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。
假设目前有一千万个记录(这些查询串的重复度比拟高,虽然总数是1千万,但如果除去重复后,不超过3百万个。一个查询串的重复度越高,说明查询它的用户越多,也就是越热门。),请你统计最热门的10个查询串,要求使用的内存不能超过1G。
典型的Top K算法,还是在这篇文章里头有所阐述,
文中,给出的最终算法是:
第一步、先对这批海量数据预处理,在O(N)的时间内用Hash 表完成统计(之前写成了排序,特此订正。July、xx.04.27);
第二步、借助堆这个数据构造,出Top K,时间复杂度为
N‘logK。
即,借助堆构造,我们可以在log量级的时间内查和调整/移动。因此,维护一个K(该题目中是10)大小的小根堆,然后遍历300万的Query,分别和根元素进展比照所以,我们最终的时间复杂度是:O(N) + N’*O(logK),(N为1000万,N’为300万)。ok,更多,详情,请参考原文。
或者:采用trie树,关键字域存该查询串出现的次数,没有出现为0。最后用10个元素的最小推来对出现频率进展排序。
3、有一个1G大小的一个文件,里面每一行是一个词,词的大小不超过16字节,内存限制大小是1M。返回频数最高的100个词。
方案:顺序读文件中,对于每个词x,取hash(x)P00,然后按照该值存到5000个小文件(记为x0,x1,…x4999)中。这样每个文件大概是200k左右。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论