用户组:游客
想实现row_number()功能 ,如 data01,data02字段 a,7 a,2 a,3 b,2 b,3 c,9 实现按ID分组加1 a1,7 a2,2 a3,3 b1,2 b2 ...
修改hadoop配置文件后,比如core-site.xml,hdfs-site.xml等配置文件后一定要重启集群吗?有没有动态更新配置文件信息的?大大求 ...
机器16core(32 超线程) 64G yarn.nodemanager.resource.cpu-vcores=32 mapreduce.reduce.cpu.vcores=1 mapreduce.reduce ...
各位好,开始没有往HDFS上传文件,上传40000个小文件后,那么这些小文件占用的内存是怎么测出来呢?
本帖最后由 指尖十段丶LePeW 于 2018-6-23 00:32 编辑 提:zabbix3.0对OS的要求:mysql5.0以上版本、apache1.3以上版本、php5. ...
我最近有个实现,rdd存的是一个多边形的边界,通过WKT来进行判断这个边界是否与另外一个多边形边界数组存在相交的状态,然后在集群 ...
之前用过hbase,当时因为没有设计好表,后来数据量上来了之后,花费了很大时间才把表重新分区了。 当时的rowkey设计是:uid+date ...
请问hbase如何设置region大小啊
jps看进程ResourceManager也有 但就是进不了MR管理界面。。。不知道是什么问题。。。求助大神
地址:https://github.com/databps/chiwen 各位表哥,我按照上面的说明已经都编译好了。如下: jar包也已经按照上面说的两个 ...
Stream-dataset joins这在种操作在前面解释DStream.transform操作时已经进行了展示。下面的例子是另一个join窗口流与数据集的例 ...
你好!请求帮助!centos6.8安装CDH5.9.2 4台物理机器 192.168.200.101 master 192.168.200.102 node1 192.168.200.102 node2 ...
使用的是CDH-5.7.0 集群中出现问题: 暂停持续时间 ( [*] HBDP [*] HDFS [*] Na ...
[mw_shl_code=java,true]import java.util.ArrayList; import java.util.List; public class Torment { public stati ...
hdfs get 或者put的时候是blocks的读写并行还是串行的?写得时候文件是切分成几个block文件还是通过index来方式,读的时候文件 ...
spark-sql在使用mysql存储元数据,创建的表都存储在hdfs的情况下,是否可以不安装hive? 我现在hive,spark都装了,每次启动spark ...
大数据一般解决哪些问题比较好?
苦逼的数据工作,在里面沉陷, 试着做了一个小小的雏形工具: 1、导入杂乱信息的文档 2、把线头理出来 3、批量提取: ...
看到今日头条的广告投放平台,可以选择各种维度的用户定向条件,并根据不同的条件组合实时给出预估覆盖用户量,感觉把各种维度组 ...
Namenode启动没有报错,但在master上jps后没有除了jps进程其他啥都没有,而两个datanode节点启动完好,为啥?
如题: hbase-hduser-master-slave2.log显示内容如下: 2018年 03月 22日 星期四 18:06:02 CST Stopping hbase (via master) ...
datanode是2G内存,我只是实验,不做大项目工具,求教大神们是因为什么,如何解决[mw_shl_code=java,true]HTTP ERROR 500 Pro ...
需求描述使用了SpoolDirectorySource可以配置一个监听目录,会监听该目录下所有的文件,但是如果配置目录下面嵌套了子目录 ...
问下,hive安装的mysql要部署在hadoop环境吗?还是独立部署一台机,通过hive去掉就行
spark有没有全局缓存?想缓存一个文件内容供给一个任务使用
请问下Hadoop完全分布式集群搭建好之后 通过浏览器查看集群情况,必须要局域网的电脑登陆这个网站才能查看吗 还是外网也可以。还 ...
我的集群上既有hive,又有spark-sql,元数据在mysql中各自独立,我现在要利用sqoop把mysql表中的数据导入spark-sql,注意不是hiv ...
hadoop都启动了 为什么localhost:50070不能连接
简单说一下情况,由于impa查询hbase效率低,准备把hbase里的数据拷贝到impala里,数据量应该在几十亿到上百亿,机器配置是13个节 ...
/yarn/local/usercache/hdfs/appcache/application_1516695361311_276643/下的历史文件不会删除,有人遇到吗
本版积分规则 发表帖子
查看 »