Remote Spark Context会在独立的JVM进程中运行,Hive Server 2的进程中可以运行多个用户的Session,每一个Session含有一个Remote Spark Context的客户端,此客户端已RPC方式向Remote Spark Context发送命令。这样就有效解决了在同一个Hive Server 2中不能运行多个Spark Context的问题。 我就是需要这个啊,同一个hs2中运行多个spark |
spark-sql 支持分区表吗,我建了分区表 但是插入数据的时候都自动分成了part-0001 。。。。。 |
好棒的文章 |
3ks~~~~~~~~ |