当前位置: 首页 > news >正文

建设工程消防监督管理规定网站东莞微网站建设费用

建设工程消防监督管理规定网站,东莞微网站建设费用,龙江网站设计,安徽网淮南频道引言 我们做项目过程中发现flink日志不同模式启动,存放位置不同,查找任务日志很不方便,具体问题如下: 原始flink的日志配置文件log4j-cli.properties appender.file.append false,取消追加,直接覆盖掉上…

引言

我们做项目过程中发现flink日志不同模式启动,存放位置不同,查找任务日志很不方便,具体问题如下:

  1. 原始flink的日志配置文件log4j-cli.properties appender.file.append = false,取消追加,直接覆盖掉上一次提交任务的信息。这里改为true解决。
  2. application模式启动任务失败/取消后,无法找到错误日志,需要用命令查找对应appId yarn application -appId <Application ID>
  3. flink session模式重启集群,导致之前提交任务信息全部删除,开启历史服务器:historyserver.archive.fs.dir: hdfs:///completed-jobs/,其他配置参考官方文档

这些问题虽然都找到了对应的解决办法,但是仍然很不方便。所有我决定研究flink的log配置文件,将所有log写入数据库/kafka中。

在查找资料中发现log4j2配置都是xml方式,而flink是以properties的配置方式,网上也没有properties方式配置JDBCAppender的资料。注:log4j2在低版本是不支持properties的

log4j2.properties写数据库

先看官网,这里介绍了flink conf目录下的每个配置文件的作用,这里我们针对log4j2修改,logback 这里没有涉及,可以自行查看官网配置。
我们准备收集到所有相关日志,所以这四个文件都需要配置JDBCAppender。
在这里插入图片描述
我这里是连接的是mysql,将mysql-connector-java-8.0.28.jar放在lib目录下,
官方支持一下四种模式,以DriverManager为示例
在这里插入图片描述

rootLogger.appenderRef.jdbc.ref=JDBCAppender
appender.jdbc.name=JDBCAppender
appender.jdbc.type=JDBC
appender.jdbc.tableName=flink_logs
appender.jdbc.connectionSource.type=DriverManager
appender.jdbc.connectionSource.connectionString=jdbc:mysql://ip:port/database
appender.jdbc.connectionSource.userName=root
appender.jdbc.connectionSource.password=root
appender.jdbc.columnConfigs1.type=Column
appender.jdbc.columnConfigs1.name=source
appender.jdbc.columnConfigs1.pattern=%c
appender.jdbc.columnConfigs2.type=Column
appender.jdbc.columnConfigs2.name=type
appender.jdbc.columnConfigs2.pattern=%p
appender.jdbc.columnConfigs3.type=Column
appender.jdbc.columnConfigs3.name=create_time
appender.jdbc.columnConfigs3.pattern=%d{yyyy-MM-dd HH:mm:ss,SSS}
appender.jdbc.columnConfigs4.type=Column
appender.jdbc.columnConfigs4.name=massage
appender.jdbc.columnConfigs4.pattern=%m %throwable

JDBCAppender更多详细配置

log4j2.properties写kafka

将kafka-client.jar放在lib目录下,
官方具体配置说明:
在这里插入图片描述

rootLogger.appenderRef.kafka.ref=KafkaAppender
appender.kafka.name=KafkaAppender
appender.kafka.type=Kafka
appender.kafka.syncSend=true
appender.kafka.ignoreExceptions=false
appender.kafka.topic=flink_log_test
appender.kafka.property.type=Property
appender.kafka.property.name=bootstrap.servers
appender.kafka.property.value=ip:9092
appender.kafka.layout.type = PatternLayout
appender.kafka.layout.pattern = %d{yyyy-MM-dd HH:mm:ss,SSS} %-5p %-60c %x - %m%n

进阶

完成以上操作我们已经可以将日志写入mysql/kafka中了,但是我发现所有日志写入后,无法区分集群,任务分别是那些了,当然可以在配置中每一个配置文件写入不同的表,但是job任务如何区分呢?
我们可以设置环境变量或系统环境变量,让log4j从中获取自定义值
更详细内容参考官方地址
在这里插入图片描述

http://www.yayakq.cn/news/974194/

相关文章:

  • 怎么做类似淘宝网站网站后期技术维护
  • 网站建设和维护一年的费用网络科技工作室经营范围
  • 网站建设工作室创业计划书石家庄百度推广官网
  • 百度网站排名提升工具郑州网络公司
  • 怎样制作网站建设规划图广州seo工作室
  • 中山建设企业网站友情链接赚钱
  • 如何看出网站用dede做的医院网站建设目的
  • 临沂网站建设兼职欧米茄官方手表
  • 网站制作公司要文化建设费北京建设工程网
  • 凡科网做的网站在百度上能找到吗成都网站网络公司
  • 专门做婚纱儿童摄影网站网站后台改网页底色
  • 网站使用微软雅黑网络营销的八大功能
  • 腾讯云如何建设网站首页红酒 网站 模板
  • 济南想建设网站买卖域名哪个网站好
  • 东莞建设小学网站建设网站的安全措施
  • 做水果网站用什么域名重庆市建设工程信息网、
  • 网站与网站做外链好吗网站内页模板
  • 做网站有什么平台观光农业规划设计
  • 网站设计公司费用艺友网站建设
  • 天津房地产网站建设如何开发微信公众号小程序
  • 泰国浪琴手表网站wordpress作者关注功能怎么实现
  • 自助建站申请长沙毕业设计代做网站价格
  • 毕业设计 旅游网站建设晋城企业网站建设价格
  • 郴州微网站建设东营建网站
  • 汕头网站推广排名网页生成视频
  • 做网站开店公司网站怎么做能被别人搜索到
  • 愿意做cps的网站ps怎样做网站详情页
  • 使用tag的网站wordpress子主题视频教程
  • 一个人做商城网站wordpress 分类文章置顶插件
  • gta5房产网站正在建设东莞市建网站