从网上找了几篇说法一一试了都没有用,不知道是不是帖子比较久远的原因
我的hive是2.1.1,spark是2.1.0,hadoop是2.7.3
求详细的配置思路,谢谢啦
我首先在hive-site.xml中
在hive配置中
<property>
<name>hive.metastore.warehouse.dir</name>
<value>hdfs://master:9000/user/hive/warehouse</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:MySQL://IP:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>ndscbigdata</value>
</property>
然后将hive-site.xml cp到spark的conf目录下,并在其中添加 <property>
<name>hive.metastore.uris</name>
<value>thrift://IP:9083</value>
</property>
然后在spark下启动spark-sql,不能访问hive的数据库 然后有几个警告提示是 Unable to load native-hadoop library for your platform... using builtin-Javaclasses where applicable
failled to get database global_temp
WARN metastore.ObjectStore: Failed to get database global_temp, returning NoSuchObjectException
WARN metastore.ObjectStore: Failed to get database hive
补充内容 (2017-7-9 12:37):
解决看这:http://dblab.xmu.edu.cn/blog/1383-2/
补充内容 (2017-7-11 10:00):
想请问一下,spark下建表是会保存在本地还是在集群上?为什么我的sparkSQL建的表都保存的本地,而且建表成功,查询的时候会提示找不到文件,但是文件的确存在 |