目录

docker-hadoop伪分布式-java上传报错

==2020-11-06更新==

docker-compose 脚本地址 (opens new window)

# 更新目的

原文的解决思路是对的,但是还是有点小问题。使用ip的话要更改好几个地方太麻烦。所以这几天重新试了一遍。

# 步骤

# 方法一:更改host

  • 通过docker ps找到datanode的容器id

  • 编辑本机的hosts文件

    • 文件最后追加一行,内容为

      
        部署datanode节点的宿主机ip datanode节点容器的id
      
      
      1
      2
      3
    • 举例:

      • 宿主机ip:192.168.2.10

      • 容器id:123456

      • hosts追加内容为

            192.168.2.10 123456
      
      1
    • 使hosts生效

    • window

          ipconfig /flushdns
      
      1
    • centos

            /etc/init.d/network restart
      
      1
  • 注意 容器不能rm或者down,否则需要重新配制hosts。restart、stop、start无影响

# 方法一:部署在同一台服务器


==以下为第一版本原文==

# 版本

  • docker:19.03.12
  • docker-compose:1.26.2
  • hadoop:3.2
  • 镜像地址:https://github.com/big-data-europe/docker-hadoop

# 报错信息

# could only be written to 0 of the 1 minReplication nodes. There are 1 datanode(s) running and 1 node(s) are excluded in this operation.


# 查错

# 网络查到的一些修改

  • 删库重新格式化
    • https://blog.csdn.net/qfxsxhfy/article/details/80909953
    • 在docker中不应该出现这种问题,而且是全新搭建的
  • dfs.replication
    • 修改为相应的节点数量
  • 空间不够
    • 删除无效数据或者扩容,这个问题因为我是新搭建的容器所以没出现,如果查找发现是此问题请慎重操作,数据无价
  • fs.defaultFS
    • 在容器的hadoop.env中已经指定好,所以我也没修改,如果没设置的可以执行设置为hdfs://namenode:9000
    • 如果是单独服务器部署节点,把namenode修改为主服务器的外网ip
  • 返回容器节点设置
    • 进容器内部查看,发现hdfs-site.xml中已经添加
  • hosts
    • 添加hadoop节点ip信息到容器的hsots中,这个容器默认添加了

# 解决

所有网上能找到的问题都试过了,结果都是无法访问。后来想到容器节点和添加hosts步骤。虽然在容器内部添加了,但是在开发机(我本地机器)上可能没办法识别。 尝试在部署docker的宿主机上修改了一下hosts,果然能访问到了。

  vi /etc/hosts

  # 追加
  <namenode 容器内部ip> namenode

  reboot
1
2
3
4
5
6

PS:我是部署的伪分布式,并非在单独的服务器上修改,如果是部署的多服务器集群模式,需要保证各个容器节点上都能互相访问到。如果以后容器的ip变更,也需要修改hosts文件中的内容。


最后吐槽一下,这几天为了解决这个问题,搜到的博客都是抄来抄去,完全不经思考,不知道他们有没有实践过。甚至有的直接删除数据格式化节点

上次更新: 2024-11-06, 19:27:10
最近更新
01
java playwright爬虫
11-06
02
连接chrome调试
07-23
03
连接chrome调试
07-23
更多文章>