mv apache-hive-3.1.2-bin/ hive3.1.2

发布时间:2025-06-24 17:09:51  作者:北方职教升学中心  阅读量:740


mv apache-hive-3.1.2-bin/ hive3.1.2。

⑤按esc键�输入:wq!后退文件;
⑥将文件传输到bigdata113、cd /opt/softs/hadoop3.1.3/sbin。

cp guava-27.0-jre.jar /opt/softs/hive3.1.2/lib/。解决 guawa jar包版本太高的问题:

 ①重命名低版jar包#xff1a;

 →右键单击当前窗口󿀌点击Dumplicatete tab选项󿀌复制新的bigdata112窗口;

 →在新窗口中,进入目录:  。我们将在虚拟机中安装hive。修改hive-site.xml文件。日志,CTRL󿀋C键可以退出:

Hive日志。

  查看:②转到新建的bigdata112窗口:

 。

 。

 ⑦bigdata113、

 。

1、

 ①压缩包下载配置文件#xff0c;解压后,

:   。  

schematool -dbType mysql -initSchema。

mv guava-19.0.jar guava-19.0.jar.bak。成功如图所示a;  。 cd lib/。,复制和保存当前路径备用:  。

④点击i进入编辑模式,在</configuration>标签前。安装hive。hive初始化元数据库。

1、后退文件;  。

①进入指定目录:  。

①打开VMware、

systemctl status mysqld。启动hdfs 。

2、解决日志jar包冲突。

①检查元数据库状态:  。 :wq!。

vim core-site.xml。解决jar包问题。

hive。 ③输入 。

cd /opt/softs/hadoop3.1.3/share/hadoop/common/lib/。cd /opt/softs/hadoop3.1.3/etc/hadoop/。114,如图所示,

cd /opt/softs/hadoop3.1.3/share/hadoop/common/lib/。:

2、成功如图所示a;

scp core-site.xml root@bigdata113:/opt/softs/hadoop3.1.3/etc/hadoop/。 。 hive数据库和许多表都出现了。ll。

 →重命名:  。

②在三台虚拟机上启动hdfs,均需输入 。配置环境变量。  →输入。

三、

→可以回到原来的窗口󿀌输入 ll 检查复制是否成功。

二、

2、

1、

②初始化元数据库,如图所示,到目前为止,Hive已成功搭建在linux上。  。

①将jar包上传到/lib目录,如图所示,

③进入core-site.xml文件:  。

scp core-site.xml root@bigdata1144:/opt/softs/hadoop3.1.3/etc/hadoop/。 ②。  

   如图所示,在Linux系统下的虚拟机中安装mysql的详细教程-CSDN博客。双击打开hive-site.xml文件,以下修改:

 。

 。

①进入hive压缩包的目录:。

①首先打开hivecore-site.xml文件,复制文件内容:

<!-- 安装hive时 core在hadoop中-site.在xml中添加以下配置 --> <!-- 从任何主机登录的root用户都可以伪装成任何group用户 --> <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property>

②进入指定目录:  。3、

cat /opt/softs/hadoop3.1.3/etc/hadoop/core-site.xml。:  。

 。source /etc/profile。

③输入jps�检查节点是否正确启动 。

tail -500f hive.log。

 。→将高版guava包复制到指定目录下:  。

cd /opt/install_packages/。

前,我们已经在虚拟机中安装了mysql,接下来,

① 进入指定目录:cd /tmp/root/。

 ①进入lib目录: 。pwd。回到原来的窗口�

将文件上传到conf目录下。

start-dfs.sh。② 查看日志:   。

/opt/softs/hadoop3.1.3/share/hadoop/common/lib。上传mysql-conector驱动jar包。cd /opt/softs/。114输入命令检查#xff0c;如图所示,

②XFF11编辑配置文件a;

→打开文件:  vim /etc/profile。

 。

3、修改hive配置文件。4、

cd /opt/softs/hadoop3.1.3/etc/hadoop/。

→点击esc键󿀌输入。

→source,使修改生效:  。

  启动hive,如图所示＀成功c;输入quit或CTRLC键退出:补充:如何查看hive日志? 。修改hadoop的core-site.xml配置文件。 。MobaXterm,启动虚拟机集群;

②将hivetar压缩包上传到linux系统下目录(单节点仍然安装,也安装在第一台虚拟机上);

 。

① 进入目录:   。
→打印,#xff1确认正确的配置a;  。

3、cd hive3.1.2/。

 ②解决jar包引起的日志冲突,效果如图所示:

mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak。启动虚拟机。

 ③修改压缩包名称:

 →进入指定目录:   。

转到最初的bigdata112窗口: →重命名guawa包#xff0c;报错如图所示。

一、  →手动输入命令后,成功重命名󿀌输入 。安装hive压缩包。echo $HIVE_HOME。

②解压到指定目录#xff1a;

tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/softs/。

→点击i键进入编辑模式,在文件末尾添加以下代码:

#HIVE_HOMEexport HIVE_HOME=/opt/softs/hive3.1.2export PATH=$PATH:$HIVE_HOME/bin。