Hive+Hadoop数据分析模拟案例练习
创作时间:
作者:
@小白创作中心
Hive+Hadoop数据分析模拟案例练习
引用
CSDN
1.
https://m.blog.csdn.net/qq_65960840/article/details/137645993
本文将通过一个具体的案例,演示如何使用Hive和Hadoop对电影评分数据进行统计分析,并最终以可视化形式展示结果。我们将从数据获取、ETL处理、统计分析到数据展示的全过程进行详细讲解。
需求分析
对电影评分数据进行统计分析,最后以可视化的形式展示出来
数据获取与上传
数据地址https://files.grouplens.org/datasets/movielens/
选择100w条评分的数据
解压后选择movies、ratings两个文件即可,在上传前需要用记事本打开这两个文件,将分隔符替换为逗号。将文件上传到Linux本地中。
在hive中创建两个表
create table movies(
movie_id int comment "电影ID",
movie_name string comment "电影名称",
movie_type string comment "电影类别")
row format delimited fields terminated by ',';
create table ratings(
user_id int comment "用户ID",
movie_id string comment "电影ID",
movie_rank int comment "电影评分",
rank_timestamp int comment "评分时间戳"
)row format delimited fields terminated bys ',';
给表加载数据
load data local inpath '/data/root/env/movies.dat' into table movies;
load data local inpath '/data/root/env/ratings.dat' into table ratings;
查看结果
数据转换(ETL)
进行简单的ETL,将数据取出后进行简单的转换然后存入新的表中
将ratings表中的时间戳转换成年月日。因为hive不支持直接对表进行update和delete操作,所以需要创建新的表来完成。
创建ratings2表
create table ratings2(
user_id int comment "用户ID",
movie_id string comment "电影ID",
movie_rank int comment "电影评分",
rank_day string comment "评分日期",
rank_hour string comment "评分时间"
)row format delimited fields terminated by ',';
对ratings表计算,使用from_unixtime()函数将时间戳转换成日期,用data函数取日期的年月日,用hour函数取日期的小时,并将结果插入到2表
insert overwrite table myhive.ratings2
select
user_id,
movie_id,
movie_rank,
DATE(from_unixtime(rank_timestamp)) as rank_day,
hour(from_unixtime(rank_timestamp)) as rank_hour
from ratings;
转换结果
统计
要求:
- 统计每日评分总量
- 统计每小时评分的数量和用户量
- 统计各用户评分次数总量
- 统计评分次数TOP10的用户
- 统计各电影被评分次数和平均分
- 统计平均分TOP10的电影
- 统计观影次数TOP10的电影
统计每日评分总量
创建查询语句,创建count_everyday_rank表,它的内容为查询到的结果
create table count_everyday_rank
comment "每日评分总量" as
select
rank_day,
count(*) as total_rank_count
from ratings2 group by rank_day;
统计每小时评分的数量和用户量
create table count_hour_rank
comment "每小时评分量" as
select
rank_hour,
count(*) as total_rank_count,
count(distinct user_id) as total_user
from ratings2 group by rank_hour;
统计各用户评分次数总量
create table count_everyone_rank
comment "每人的总评分次数" as
select
user_id,
count(*) as all_count
from ratings2 group by user_id;
统计评分次数TOP10的用户
create table count_everyone_rank_top10
comment "评分次数top10用户" as
select
user_id,
count(*) as all_count
from ratings2 group by user_id
order by all_count desc
limit 10;
统计各电影被评分次数和平均分
create table movie_info
comment "电影评分次数和平均分" as
select
movie_id,
count(*) as all_count,
avg(movie_rank) as avg_rank
from ratings2 group by movie_id;
统计平均分TOP10的电影
对于只有一个评价的电影且它的评分就是5,那么计算得到的平均分也是5,这样的数据是没有说服力的,所以需要至少拥有500个评分的电影来计算平均值。
create table movie_avg_rank_top10
comment "movie_avg_rank_top10" as
select a.movie_id,m.movie_name,a.all_count,a.avg_rank
from (
select
r.movie_id,
count(*) as all_count,
avg(movie_rank) as avg_rank
from ratings2 r
group by movie_id
having all_count > 500
order by avg_rank desc limit 10
) as a
join movies m
on a.movie_id=m.movie_id;
统计观影次数TOP10的电影
create table movie_count_top10
comment "movie_count_top10" as
select a.movie_id,m.movie_name,a.all_count
from (
select
r.movie_id,
count(*) as all_count
from ratings2 r
group by r.movie_id
order by all_count desc limit 10
) as a
join movies m
on m.movie_id=a.movie_id;
数据展示
使用FineBI连接hive数据库并展示数据
热门推荐
武汉大学中南医院完成湖北省首例胃转流支架置入手术,患者半年有望减重50斤
情侣之间晚上怎么增进感情
如何使用缺陷管理报告提升软件质量?
德国的两次世界大战:原因与影响
保留传统 进行创新 千年非遗这样“火”出圈
【血友病】是什么?了解遗传模式、原因、早期症状、诊断及治疗方法
落地半年 “科创板八条”助力科技创新
霓虹闪耀的Disco文化:70年代、光、律动、时尚自由、复古潮流…
成人本科能不能考四级英语?小白必看
泡水车的市场价值评估与保险公司定损流程详解
维生素C泡腾片哺乳期能吃吗
宋朝军队怎么作战?冷热兵器混用,火器领先于世界
低功耗长续航,蓝牙模块功耗优化的核心技术解析
藏族医药:中华医药学宝库中的瑰宝
丙肝病毒能存活半年以上吗?
盐茶是什么意思?盐茶的起源、制作和营养价值
如何提升留学美国的口语能力全攻略
长孙皇后与“观音婢”之称的由来
“爆改”集装箱植物工厂 3D社区农场上线
黑头长什么样
怀孕肚子胀气怎么缓解 5个方法解决胀气问题
从电影《怦然心动》中感受爱与友谊的力量对青春期成长的影响
如何发挥ENTJ的潜力?5个关键成长建议
员工流动越来越频繁,HR该如何做离职率分析?
数字化转型浪潮下,HR如何用数据驱动打造高能组织?
魔渊之刃中魔气提取器升级全攻略-方法条件详细解析助你变强
巍山:电商搭建平台 农特产品“唱戏”
红楼梦第41-50回简介和读后感
想当“钙”世英雄?正确补钙,让您的骨骼硬气十足!【妇幼科普】
民间借贷利滚利?复利可能被支持!