多个节点安装hive后,多个hive共享的元数据,大家的库、表统一。
1、解压hive
使用lrzsz上传hive压缩包
将hive解压到指定路径
查看解压后的文件
2.mysql数据库的安装
在线安装mysql相关的软件包
yum install mysql mysql-server mysql-devel
启动mysql的服务
service mysqld start
进入mysql的客户端然后进行授权(配置远程连接)
use mysql;
grant all privileges on . to ‘root’@’%’ identified by ‘123456’ with grant option;
刷新mysql
flush privileges;
设置root用户链接mysql的密码
update user set password=password(‘123456’) where user=‘root’;
刷新mysql
flush privileges;
3.修改hive的配置文件
修改hive-env.sh
将hive-env.sh.template文件拷贝一份,进入拷贝的hive-env.sh的文件中进行配置
cd /export/servers/hive-1.1.0-cdh5.14.0/conf
cp hive-env.sh.template hive-env.sh
vim hive-env.sh
HADOOP_HOME:HADOOP的路径
HIVE_CONF_DIR:Hive的conf路径
修改hive-site.xml
进入hive-site.xml文件进行配置
cd /export/servers/hive-1.1.0-cdh5.14.0/conf
vim hive-site.xml
指定位置修改为对应的主机名
配置文件:
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://node03.hadoop.com:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>node03.hadoop.com</value>
</property>
<!--
<property>
<name>hive.metastore.uris</name>
<value>thrift://node03.hadoop.com:9083</value>
</property>
-->
</configuration>
上传mysql的lib驱动包
cd /export/servers/hive-1.1.0-cdh5.14.0/lib
使用lrzsz上传mysql的lib驱动包到hive的lib目录下
4.配置Hive环境
添加配置文件并配置
cd /etc/profile.d
vi ./hive.sh
export HIVE_HOME=/export/servers/hive-1.1.0-cdh5.14.0
export PATH=PATH: PATH:PATH:HIVE_HOME/bin
使配置生效
source /etc/profile
5.将Hive环境配置文件以及Hive包分发到其他节点
Hive包分发到其他节点
scp /export/servers/hadoop-2.6.0 node001:/export/servers/
cp /export/servers/hadoop-2.6.0 node002:/export/servers/
Hive环境配置文件分发到其他节点
scp /etc/profile.d/hive.sh node001:/etc/profile.d/
scp /etc/profile.d/hive.sh node002:/etc/profile.d/
使Hive环境配置文件生效
source /etc/profile
6.验证是否成功
启动hive
一个节点创建数据库
另一个节点查看
大数据培训班:http://www.baizhiedu.com/bigdata2019
注释:本文为CSDN博主「没去过埃及的法老」的原创文章