你的问题是关于Apache Flink在处理Kafka数据时遇到的问题,具体表现为HDFS文件写入失败。这个错误的原因是HDFS集群没有足够的datanode来满足文件的写入要求。
错误消息提示“File /flink/yarn/ha/default/blob/job_d8abd7d1c158e3ed63a553ee04175a81/blob_p-143fd61770897b4898cae98fa60efb5d0dabe1ef-2f6bfb3bea4e4f49f7ffeaf5cf46b66a could only be written to 0 of the 1 minReplication nodes. There are 1 datanode(s) running and 0 node(s) are excluded in this operation.” 这表明尝试写入的文件需要至少一个副本(minReplication),但是目前没有可用的datanode来存储副本。
这个问题可能有以下几个原因:
希望这些建议能帮助你解决问题。如果问题仍然存在,可能需要更深入地检查你的Flink程序和HDFS集群的状态。
本文地址:https://www.0558.la/article/82e581fddb17808f1ec7.html