spark sql的执行跟关系数据的执行原理是一样的吗?难道针对同一个job,比如StreamingJob,如果结合SparkSQL的话,可以运行多个SparkSQL的查询吗?官网最新版Spark1.3.1倒是有那么一句话“You can also run SQL queries on tables defined on streaming data from a different thread (that is, asynchronous to the running StreamingContext).”,http://spark.apache.org/docs/latest/streaming-programming-guide.html#dataframe-and-sql-operations.但是仅有此处有提及,SparkSQL的介绍里并没有提及相关部分。所以我很疑惑,因为我们是对流数据进行处理,如果不能类似于普通关系数据库sql查询的话,每次更改查询都需要重启job的话,那就太麻烦太不现实了。请问你是从哪判断SparkSQL是跟普通关系数据库的查询一样的原理呢?