我有一个运行shell脚本的简单工作流(见下文)。shell脚本运行pyspark脚本,该脚本将文件从本地移动到hdfs文件夹。
当我运行shell脚本本身时,它工作得很好,日志通过shell脚本中的> spark.txt 2>&1重定向到一个文件夹。
但是,当我使用以下工作流提交oozie作业时,shell的输出似乎被抑制了。我尝试重定向所有可能的oozie logs (-verbose -log) > oozie.txt 2>&1,但是没有帮助。
工作流已成功完成(状态SUCCESSEDED,没有错误日志),但我看到,文件夹没有复制到hdfs,但是当我单独运行它(不是通过oozie)时,一切正常。
<action name="forceLoadFromLocal2hdfs">
<shell xmlns="uri:oozie:shell-action:0.1">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<configuration>
<property>
<name>mapred.job.queue.name</name>
<value>${queueName}</value>
</property>
</configuration>
<exec>driver-script.sh</exec>
<argument>s</argument>
<argument>script.py</argument>
<!-- arguments for py script -->
<argument>hdfsPath</argument>
<argument>localPath</argument>
<file>driver-script.sh#driver-script.sh</file>
</shell>
<ok to="end"/>
<error to="killAction"/>
非常感谢!
编辑: Thx到我在下面找到完整日志的建议
yarn -logs -applicationId [application_xxxxxx_xxxx] 发布于 2017-07-28 17:04:57
感谢我在下面找到的完整日志
yarn -logs -applicationId [application_xxxxxx_xxxx] https://stackoverflow.com/questions/45322251
复制相似问题