A股上市公司传智教育(股票代码 003032)旗下技术交流社区北京昌平校区

 找回密码
 加入黑马

QQ登录

只需一步,快速开始

© 梦缠绕的时候 黑马粉丝团   /  2018-10-9 09:38  /  1237 人查看  /  1 人回复  /   0 人收藏 转载请遵从CC协议 禁止商业使用本文

hortonworks hadoop conf path:
/etc/hadoop/conf/
hortonworks 没有$HADOOP_HOME这个环境变量, 但有$SPARK_HOME(/usr/hdp/current/spark2-client),
/usr/hdp/current/spark2-client/conf 为其配置目录


Spark logs:
The directory where they are located can be found by looking at your YARN configs (yarn.nodemanager.remote-app-log-dir and yarn.nodemanager.remote-app-log-dir-suffix)
如果使用yarn作为spark的master, 可以使用
usage: yarn logs -applicationId <application ID> [OPTIONS]
来看日志
如果觉得 spark-submit 以后显示的INFO日志太多想消除, 可以去$SPARK_HOME的conf目录下把 log4j.properties修改一下, 然后在spark-submit命令中增加一段
--driver-java-options "-Dlog4j.configuration=file:/path/to/log4j.properties" \
来消除屏幕上不要的日志级别比如INFO, 其实这里就是限制了spark driver的执行日志
怎么限制executor的日志呢(yarn logs的显示日志), 也可以在spark-submit里增加参数
--conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j.properties"


最终示例(执行命令目录下已经有log4j.properties文件的话, 就不必指定全路径了):






  • spark-submit --master yarn --deploy-mode client \



  • --driver-java-options "-Dlog4j.configuration=log4j.properties" \



  • --conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j.properties" \



  • somescript.py




---------------------本文来自 爱知菜 的CSDN 博客 ,全文地址请点击:https://blog.csdn.net/rav009/art ... 029?utm_source=copy

1 个回复

倒序浏览
奈斯
回复 使用道具 举报
您需要登录后才可以回帖 登录 | 加入黑马