mv apache-hive-3.1.2-bin/ hive3.1.2
发布时间:2025-06-24 17:09:51 作者:北方职教升学中心 阅读量:740
mv apache-hive-3.1.2-bin/ hive3.1.2。
⑤按esc键输入:wq!后退文件;
⑥将文件传输到bigdata113、cd /opt/softs/hadoop3.1.3/sbin。cp guava-27.0-jre.jar /opt/softs/hive3.1.2/lib/。解决 guawa jar包版本太高的问题:
①重命名低版jar包#xff1a;
→右键单击当前窗口点击Dumplicatete tab选项复制新的bigdata112窗口;
→在新窗口中,进入目录: 。我们将在虚拟机中安装hive。修改hive-site.xml文件。日志,CTRLC键可以退出:
Hive日志。
查看:②转到新建的bigdata112窗口:
。
。
⑦bigdata113、
。
1、
①压缩包下载配置文件#xff0c;解压后,
: 。 schematool -dbType mysql -initSchema。
mv guava-19.0.jar guava-19.0.jar.bak。成功如图所示a; 。 cd lib/。,复制和保存当前路径备用: 。
④点击i进入编辑模式,在</configuration>标签前。安装hive。hive初始化元数据库。
1、后退文件; 。
①进入指定目录: 。
①打开VMware、
systemctl status mysqld。启动hdfs 。2、解决日志jar包冲突。
①检查元数据库状态: 。 :wq!。

vim core-site.xml。解决jar包问题。

hive。 ③输入 。
cd /opt/softs/hadoop3.1.3/share/hadoop/common/lib/。cd /opt/softs/hadoop3.1.3/etc/hadoop/。114,如图所示,
cd /opt/softs/hadoop3.1.3/share/hadoop/common/lib/。:
2、成功如图所示a;
scp core-site.xml root@bigdata113:/opt/softs/hadoop3.1.3/etc/hadoop/。 。 hive数据库和许多表都出现了。ll。
→重命名: 。
②在三台虚拟机上启动hdfs,均需输入 。配置环境变量。 →输入。
三、→可以回到原来的窗口输入 ll 检查复制是否成功。
二、2、
1、

二、2、
1、

①将jar包上传到/lib目录,如图所示,
③进入core-site.xml文件: 。
scp core-site.xml root@bigdata1144:/opt/softs/hadoop3.1.3/etc/hadoop/。 ②。
如图所示,在Linux系统下的虚拟机中安装mysql的详细教程-CSDN博客。双击打开hive-site.xml文件,以下修改:
。
①进入hive压缩包的目录:。
①首先打开hivecore-site.xml文件,复制文件内容:
<!-- 安装hive时 core在hadoop中-site.在xml中添加以下配置 --> <!-- 从任何主机登录的root用户都可以伪装成任何group用户 --> <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property>
②进入指定目录: 。3、cat /opt/softs/hadoop3.1.3/etc/hadoop/core-site.xml。: 。
。source /etc/profile。
③输入jps检查节点是否正确启动 。

tail -500f hive.log。
。→将高版guava包复制到指定目录下: 。
cd /opt/install_packages/。前,我们已经在虚拟机中安装了mysql,接下来,
① 进入指定目录:cd /tmp/root/。
①进入lib目录: 。pwd。回到原来的窗口
将文件上传到conf目录下。start-dfs.sh。② 查看日志: 。
/opt/softs/hadoop3.1.3/share/hadoop/common/lib。上传mysql-conector驱动jar包。cd /opt/softs/。114输入命令检查#xff0c;如图所示,
②XFF11编辑配置文件a;
→打开文件: vim /etc/profile。
。
3、修改hive配置文件。4、
cd /opt/softs/hadoop3.1.3/etc/hadoop/。
→点击esc键输入。
→source,使修改生效: 。
启动hive,如图所示成功c;输入quit或CTRLC键退出:补充:如何查看hive日志? 。修改hadoop的core-site.xml配置文件。 。MobaXterm,启动虚拟机集群;
②将hivetar压缩包上传到linux系统下目录(单节点仍然安装,也安装在第一台虚拟机上);
。
① 进入目录: 。
→打印,#xff1确认正确的配置a; 。
3、cd hive3.1.2/。
②解决jar包引起的日志冲突,效果如图所示:
mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak。启动虚拟机。
③修改压缩包名称:
→进入指定目录: 。
转到最初的bigdata112窗口: →重命名guawa包#xff0c;报错如图所示。
一、 →手动输入命令后,成功重命名输入 。安装hive压缩包。echo $HIVE_HOME。
②解压到指定目录#xff1a;
tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/softs/。→点击i键进入编辑模式,在文件末尾添加以下代码:
#HIVE_HOMEexport HIVE_HOME=/opt/softs/hive3.1.2export PATH=$PATH:$HIVE_HOME/bin。