在使用自动化部署的方式中,没有找到与Hadoop集成的步骤和输入选项。
请问,
1.是否使用手工配置方式中的集群模式的部署,在 步骤四:通过命令配置和启动数据节点 的时候,添加数据节点 ”d> dataRG.createNode("sdbserver1", 11820, "/opt/sequoiadb/database/data/11820")“ 改为,连接到hdfs的地址和端口?,但是这个跟 SequoiaDB 与 Hadoop 部署 的好像有点不对应。
请问具体是怎么配置的?谢谢
sequoiadb 与hadoop 的集成,并不是说sequoiadb 使用hdfs ,而是与MapReduce 进行整合,详细你可以参考sequoiadb 的文档
http://www.sequoiadb.com/document/1.10/hadoop_integration/topics/map_reduce.html
好的。了解了。提供Spark接口的版本和文档什么时候发布?