数据仓库和Hive环境搭建

2025-05-29 0 53

数据仓库和Hive环境搭建

上次介绍了HDFS,本来想进入Mapreduce,但感觉Mapreduce基本废弃,于是直接进入了Hive中来。

数据仓库

数据仓库,英文名称为Data Warehouse,可简写为DW或DWH。数据仓库顾名思义,是一个很大的数据存储集合,出于企业的分析性报告和决策支持目的而创建,对多样的业务数据进行筛选与整合。

它为企业提供一定的BI(商业智能)能力,指导业务流程改进、监视时间、成本、质量以及控制。

数据仓库的输入方是各种各样的数据源,最终的输出用于企业的数据分析、数据挖掘、数据报表等方向。

数据仓库和Hive环境搭建

数据库和数据仓库区别

数据库是面向交易的处理系统,它是针对具体业务在数据库联机的日常操作,通常对记录进行查询、修改。用户较为关心操作的响应时间、数据的安全性、完整性和并发支持的用户数等问题。

数据仓库一般针对某些主题的历史数据进行分析,支持管理决策,又被称为联机分析处理 OLAP(On-Line Analytical Processing)。

比如,支付宝年度账单其本质是基于数据仓库进行数据可视化而成。

数据仓库和Hive环境搭建

数据仓库,是在数据库已经大量存在的情况下,为了进一步挖掘数据资源、为了决策需要而产生的,它决不是所谓的“大型数据库”。

数据仓库分层

按照数据流入流出的过程,数据仓库架构可分为三层——源数据(ODS)、数据仓库(DW)、数据应用(APP)。

数据仓库和Hive环境搭建

Hive

Hive是一个构建在 Hadoop上的数据仓库框架。最初,Hive是由Facebook开发,后来移交由 Apache!软件基金会开发,并作为一个 Apache开源项目。

Hive是建立在 Hadoop上的数据仓库基础构架。它提供了一系列的工具,可以存储、查询和分析存储在分布式存储系统中的大规模数据集。Hive定义了简单的类SQL査询语言,通过底层的计算引擎,将SQL转为具体的计算任务进行执行。

数据仓库和Hive环境搭建

Hive支持Mapreduce、Tez、Spark等分布式计算引擎。

Hive环境搭建

在Hive环境搭建无需配置集群,Hive的安装其实有两部分组成,一个是Server端、一个是客户端,所谓服务端其实就是Hive管理Meta的那个Hive,服务端可以装在任何节点上,可以是Namenode上也可以是Datanode的任意一个节点上。

Hive的客户端界面工具早期选择SQuirrel SQL Client,但最近我喜欢上了Apache Zeppelin,Apache Zeppelin是一款基于Web的NoteBook,其实和Juypyter Notebook没有什么两样。

在 Hive环境搭建,需要搭建Mysql,这里选择节点node02进行Mysql环境搭建

  1. [hadoop@node02~]$cdmodule/
  2. [hadoop@node02module]$mkdirmysql
  3. [hadoop@node02module]$cdmysql/
  4. [hadoop@node02mysql]#wgethttps://dev.mysql.com/get/mysql57-community-release-el7-9.noarch.rpm
  5. [hadoop@node02mysql]$sudorpm-ivhmysql57-community-release-el7-9.noarch.rpm
  6. [hadoop@node02yum.repos.d]$yuminstallmysql-server
  7. [hadoop@node02yum.repos.d]##第一次登录跳过权限认证
  8. [hadoop@node02yum.repos.d]#sudovim/etc/my.cnf
  9. ############
  10. [mysqld]
  11. #添加下面一行
  12. skip-grant-tables
  13. [hadoop@node02yum.repos.d]#sudosystemctlstartmysqld
  14. [hadoop@node02yum.repos.d]#mysql-uroot
  15. mysql>flushprivileges;
  16. QueryOK,0rowsaffected(0.00sec)
  17. mysql>ALTERUSER'root'@'localhost'IDENTIFIEDBY'123456';
  18. QueryOK,0rowsaffected(0.00sec)
  19. mysql>createdatabasehive;
  20. QueryOK,1rowaffected(0.00sec)
  21. mysql>exit;
  22. [hadoop@node02yum.repos.d]#mysql-uroot-p123456
  23. mysql>usemysql;
  24. #设置远程连接权限
  25. mysql>GRANTALLPRIVILEGESON*.*TO'root'@'%'IDENTIFIEDBY'123456'WITHGRANTOPTION;
  26. QueryOK,0rowsaffected,1warning(0.00sec)
  27. mysql>FLUSHPRIVILEGES;
  28. QueryOK,0rowsaffected(0.00sec)

下面开始在centos系统中安装Hive。为了兼顾Hadoop3.1.4版本,我们选择安装hive3.1.2版本。Hive下载官方:http://www.apache.org/dyn/closer.cgi/hive/

数据仓库和Hive环境搭建

  1. [hadoop@node02module]$ls
  2. apache-hive-3.1.2-bin.tar.gzhadoopmysql
  3. [hadoop@node02module]$tar-zxvfapache-hive-3.1.2-bin.tar.gz
  4. [hadoop@node02module]$mvapache-hive-3.1.2-binhive
  5. [hadoop@node02module]$ls
  6. apache-hive-3.1.2-bin.tar.gzhadoophivemysql
  7. [hadoop@node02conf]$mvhive-env.sh.templatehive-env.sh
  8. [hadoop@node02conf]$vimhive-env.sh
  9. #########
  10. exportHADOOP_HOME=/home/hadoop/module/hadoop/hadoop-3.1.4
  11. exportHIVE_CONF_DIR=/home/hadoop/module/hive/conf
  12. exportHIVE_AUX_JARS_PATH=/home/hadoop/module/hive/lib
  13. [hadoop@node02conf]$sudovim/etc/profile
  14. #########
  15. exportHIVE_HOME=/home/hadoop/module/hive
  16. exportPATH=$PATH:$HIVE_HOME/bin
  17. exportHIVE_CONF_DIR=$HIVE_HOME/conf
  18. [hadoop@node02conf]$source/etc/profile
  19. [hadoop@node02conf]$mvhive-default.xml.templatehive-site.xml
  20. [hadoop@node02conf]$vimhive-site.xml
  21. #########
  22. <property>
  23. <!
  24. 对应的文件夹需要创建
  25. –>
  26. <name>hive.exec.local.scratchdir</name>
  27. <value>/home/hadoop/module/data/hive/jobs</value>
  28. </property>
  29. <property>
  30. <name>hive.downloaded.resources.dir</name>
  31. <value>/home/hadoop/module/data/hive/resources</value>
  32. </property>
  33. <property>
  34. <name>javax.jdo.option.ConnectionUserName</name>
  35. <value>root</value>
  36. </property>
  37. <property>
  38. <name>javax.jdo.option.ConnectionPassword</name>
  39. <value>123456</value>
  40. </property>
  41. <property>
  42. <name>javax.jdo.option.ConnectionURL</name>
  43. <value>jdbc:mysql://192.168.147.129:3306/hive?createDatabaseIfNotExsit=true</value>
  44. </property>
  45. <!–MySQL5.7使用com.mysql.jdbc.Driver
  46. Mysql6版本使用com.mysql.cj.jdbc.Driver
  47. –>
  48. <property>
  49. <name>javax.jdo.option.ConnectionDriverName</name>
  50. <value>com.mysql.jdbc.Driver</value>
  51. </property>

数据仓库和Hive环境搭建

为了使用Java连接Mysql,需要下载Mysql驱动,下载地址:https://maven.ityuan.com/maven2/mysql/mysql-connector-java/5.1.33。

下载完成后并放在lib文件夹中,并通过hive初始化Mysql数据库。

  1. [hadoop@node02lib]$pwd
  2. /home/hadoop/module/hive/lib
  3. [hadoop@node02lib]$wgethttps://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.33/mysql-connector-java-5.1.33.jar
  4. [hadoop@node02lib]$schematool-dbTypemysql-initSchema

在Hive初始化Mysql数据库,容易遇到两个比较常见的Bug:

第一个Hive初始化Mysql数据库:java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument

错误原因:系统找不到这个类所在的jar包或者jar包的版本不一样系统不知道使用哪个。hive启动报错的原因是后者

解决办法:

  1. com.google.common.base.Preconditions.checkArgument这个类所在的jar包为:guava.jar
  2. hadoop-3.2.1(路径:hadoop\\share\\hadoop\\common\\lib)中该jar包为 guava-27.0-jre.jar;而hive-3.1.2(路径:hive/lib)中该jar包为guava-19.0.1.jar
  3. 将jar包变成一致的版本:删除hive中低版本jar包,将hadoop中高版本的复制到hive的lib中。

第二个Hive初始化Mysql数据库:Exception in thread "main" java.lang.RuntimeException: com.ctc.wstx.exc.WstxParsingException: Illegal character entity: expansion character (code 0x8 at

报错原因:在本身的hive-site.xml配置文件中,3215行(见报错记录第二行)有特殊字符

解决办法:进入hive-site.xml文件,跳转到对应行,删除里面的特殊字符即可。

如果报Unknown database 'hive',建议直接在MySQL中创建hive数据库。

最终Hive成功初始化Mysql数据库如下图所示:

数据仓库和Hive环境搭建

查看hive数据库,就会看见对应初始化的表生成。

数据仓库和Hive环境搭建

在输入hive,即可进入Hive命令行,说明Hive搭建成功。

数据仓库和Hive环境搭建

原文地址:https://mp.weixin.qq.com/s/8vRP6d3bco-LEDo7oHTM6Q

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

快网idc优惠网 建站教程 数据仓库和Hive环境搭建 https://www.kuaiidc.com/112494.html

相关文章

发表评论
暂无评论