[spark]在spark中使用hive表

发布时间:2022-08-19 11:23

1.把hive-site.xml core-site.xml hdfs-site.xml 三个配置文件拷贝到spark的conf目录下

2.然后还有一个mysql的驱动包(hive/lib里有)拷贝到spark的lib目录下

3.输入$SPARK_HOME/bin/spark-sql

  [spark]在spark中使用hive表_第1张图片

4.如果启动sparkSQL的时候发现日志太多, 可以到conf目录下, 有一个log4j的文件, 里边可以改级别

ItVuer - 免责声明 - 关于我们 - 联系我们

本网站信息来源于互联网,如有侵权请联系:561261067@qq.com

桂ICP备16001015号