提问人:Shamir Bhandari 提问时间:11/17/2023 最后编辑:OneCricketeerShamir Bhandari 更新时间:11/20/2023 访问量:14
我收到此错误:有 0 个数据节点正在运行,并且此操作中没有排除任何节点
I got this error There are 0 datanode(s) running and no node(s) are excluded in this operation
问:
我是否需要安装 hive 才能在我的机器上使用 sqoop?当我尝试将数据从MySQL导入Hadoop时,它会抛出如下错误:
bhandarisamir@Lomass-MacBook-Pro ~ % sqoop import \
--connect jdbc:mysql://lord-MacBook-Pro.local:3306/employees \
--username root \
--password password \
--table employees \
--target-dir /user/hadoop/employees
23/11/16 23:41:06 错误工具。ImportTool:遇到 IOException 运行导入作业: org.apache.hadoop.ipc.RemoteException(java.io.IOException):文件 /tmp/hadoop-yarn/staging/bhandari/.staging/job_1700188909100_0001/libjars/mysql-connector-java-5.1.48.jar 只能复制到 0 个节点,而不是 minReplication (=1)。 有 0 个数据节点正在运行,并且没有节点被排除在外 操作。
我希望来自 mysql 的数据 http://localhost:50070/explorer.html#/ 导入到这里。但它没有成功.
答:
0赞
OneCricketeer
11/20/2023
#1
是的,sqoop 需要 Hive,但您的错误显示 HDFS 未运行,因此如果没有健康的 HDFS 集群,Hive 将无法工作
在运行任何 sqoop 命令之前,您需要查看 namenode 和 datanode 日志中是否存在连接问题
请注意,sqoop 本身就是一个已停用的 Apache 项目。SparkSQL 通常用于查询 jdbc 表
评论