最近领导要求学习大数据,一周内让我用hive自定义函数实现一个功能。我在虚拟机搭的伪分布式的hadoop环境,hive和sqoop环境也都弄好了。从公司数据库上抽数据时,一般的表用sqoop导入没有问题,导入一个数据量在20多万的表时过程中就一直报错
先报这个
然后这个错,错误循环出现了三次,整个应用就失败了
,刚接触大数据才一周不到,领导催得急,很多东西没给我时间看。导致我现在出现问题都不知道怎么调试。我猜测这个是不是yarn分配的资源不够导致的,因为执行过程中我电脑很卡,ResourceManager上Memory Total是8GB, Memory Used是6GB-8GB。我应该如何修改呢
|