您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息

Hadoop Tmp Dir

2024/4/14 9:18:07发布13次查看
今天早上的报表没有出来,报表是从用 hadoop 进行跑的 一看 hadoop 相关日志,报如下错误 message: org.apache.hadoop.ipc.remoteexception: java.io.ioexception: org.apache.hadoop.fs.fserror: java.io.ioexception: no space left on device 咋一看, 以为
今天早上的报表没有出来,报表是从用 hadoop 进行跑的
一看 hadoop 相关日志,报如下错误
message: org.apache.hadoop.ipc.remoteexception: java.io.ioexception: org.apache.hadoop.fs.fserror: java.io.ioexception: no space left on device
咋一看, 以为是 hdfs没空间了,运行如下命令
hadoop dfsadmin -report configured capacity: 44302785945600 (40.29 tb) present capacity: 42020351946752 (38.22 tb) dfs remaining: 8124859072512 (7.39 tb) dfs used: 33895492874240 (30.83 tb) dfs used%: 80.66% under replicated blocks: 1687 blocks with corrupt replicas: 0 missing blocks: 0
从输出的结果来看,dfs的空间还很大,所以”no space left on device”这样的错误应该不是hdfs的问题
应该是本地磁盘的问题,发现hadoop运行时,要用到一个临时目录,可以在core-site.xml文件中配置
hadoop.tmp.dir
默认的路径是 /tmp/hadoop-${user.name}
看了一下 /tmp/的空间,确实很小了,把hadoop.tmp.dir挂到一个大一点的盘上就可以了
hadoop.tmp.dir是其它临时目录的父目录
但是一个问题还没有解决, hadoop.tmp.dir到底需要多大空间呢?怎么样计算呢?
common-question-and-requests-from-our-users
原文地址:hadoop tmp dir, 感谢原作者分享。
该用户其它信息

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录 Product