我收到此错误:有 0 个数据节点正在运行,并且此操作中没有排除任何节点

I got this error There are 0 datanode(s) running and no node(s) are excluded in this operation

提问人:Shamir Bhandari 提问时间:11/17/2023 最后编辑:OneCricketeerShamir Bhandari 更新时间:11/20/2023 访问量:14

问:

我是否需要安装 hive 才能在我的机器上使用 sqoop?当我尝试将数据从MySQL导入Hadoop时,它会抛出如下错误:

bhandarisamir@Lomass-MacBook-Pro ~ % sqoop import \
  --connect jdbc:mysql://lord-MacBook-Pro.local:3306/employees \
  --username root \
  --password password \
  --table employees \
  --target-dir /user/hadoop/employees

23/11/16 23:41:06 错误工具。ImportTool:遇到 IOException 运行导入作业: org.apache.hadoop.ipc.RemoteException(java.io.IOException):文件 /tmp/hadoop-yarn/staging/bhandari/.staging/job_1700188909100_0001/libjars/mysql-connector-java-5.1.48.jar 只能复制到 0 个节点,而不是 minReplication (=1)。 有 0 个数据节点正在运行,并且没有节点被排除在外 操作。

我希望来自 mysql 的数据 http://localhost:50070/explorer.html#/ 导入到这里。但它没有成功.

Hadoop sqoop

评论


答:

0赞 OneCricketeer 11/20/2023 #1

是的,sqoop 需要 Hive,但您的错误显示 HDFS 未运行,因此如果没有健康的 HDFS 集群,Hive 将无法工作

在运行任何 sqoop 命令之前,您需要查看 namenode 和 datanode 日志中是否存在连接问题

请注意,sqoop 本身就是一个已停用的 Apache 项目。SparkSQL 通常用于查询 jdbc 表