本帖最后由 desehawk 于 2015-8-13 19:20 编辑
问题导读
1.Storm拓扑是否可以实时地向HBase写入数据及查询?
2.Apache Storm的HDFS集成包含哪些内容?
- 改进与Kafka的集成——Apache Strom自0.9.2-incubating版本以来就支持使用Apache Kafka作为流数据源。0.9.3版本进行了若干改进,其中包括向一个或多个Kafka集群或Topic写入数据。现在,Storm用户可以将Kafka用作流数据的源和目的地。这一点考虑了拓扑间通信、拓扑链、基于spout/bolt的拓扑与基于Trident的数据流之间的结合以及与支持从Kafka获取数据的任何外部系统的集成。更多信息请查看 storm-kafka项目文档 。
- HDFS集成——Apache Storm的HDFS集成包含多个bolt和Trident state实现,允许拓扑开发人员从任何Storm拓扑向HDFS写入数据。更多信息请查看 storm-hdfs项目文档 。
- HBase集成——Apache Storm的HBase集成包含若干组件,允许Storm拓扑实时地向HBase写入数据及查询,并允许用户将HBase中的数据资产作为流数据查询,以及将HBase用于保存流计算结果。更多信息请查看 storm-hbase项目文档 。
- 减少依赖冲突——在Storm的先前版本中,用户拓扑的依赖项经常与Storm使用的库相冲突。Storm 0.9.3更改了多个经常导致冲突的依赖包的存放位置,详细信息请查看 发布说明 。
- 改进多语言——Storm 0.9.3包含一个新的 Node.js 多语言实现,允许开发人员使用JavaScript编写spouts和bolts。此外,多语言协议的健壮性和错误处理能力也得到了很大的提升。这也导致多语言API发生了向后不兼容的变化。因此,在升级之前,使用了多语言拓扑的用户应查看Python、Ruby和JavaScript的多语言示例以确定其影响。
感兴趣的读者可以从 这里 下载。更详细的信息请查看 更新日志 。
#####################
|