spark任务修改日志级别

举报
顾先生啊 发表于 2022/12/29 16:35:03 2022/12/29
【摘要】 场景一、driver端的日志级别  修改客户端下:/opt/hadoopclient/Spark2x/spark/conf/log4j.propertieslog4j.rootCategory=WARN, console  =>log4j.rootCategory=INFO, console场景二、executor端的日志级别,默认INFO修改客户端下:/opt/hadoopclient/S...

场景一、driver端的日志级别

  修改客户端下:/opt/hadoopclient/Spark2x/spark/conf/log4j.properties

log4j.rootCategory=WARN, console  =>log4j.rootCategory=INFO, console

场景二、executor端的日志级别,默认INFO

修改客户端下:/opt/hadoopclient/Spark2x/spark/conf/ log4j-executor.properties

log4j.rootCategory= INFO, sparklog => log4j.rootCategory=DEBUG, sparklog

spark.executor.log.level = INFO  => spark.executor.log.level = DEBUG

场景三、动态修改executordebug日志级别

1)首先确认spark-default.confspark.executor.extraJavaOptions是否包含参数

-Dlog4j.configuration.watch=true,没有的话手动添加上,重新启动任务,确认生效


2)找到对应container目录下的log4j-executor.properties文件


3)单个正在运行executor日志级别动态修改


4)最终可以达到对某些特定的container进行日志级别修改的作用。


注意:

首先确保-Dlog4j.configuration.watch=true该参数存在,这样就不用重启任务就可以生效了,不存在,需要重启任务才能生效。

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。