当前位置: 首页 > news >正文

知乎 闲鱼网站建设和网站运营电子商务网站建站

知乎 闲鱼网站建设和网站运营,电子商务网站建站,济南市历城区精神文明建设网,如何查看百度蜘蛛来过网站Mongodb 慢查询日志分析 使用 mloginfo 处理过的日志会在控制台输出, 显示还是比较友好的. 但是如果内容较大, 就不方便查看了, 如果可以导入到 excel 就比较方便筛选/排序. 但是 mloginfo 并没有提供生成到 excel 的功能. 可以通过一个 python 脚本辅助生成: import pandas…

Mongodb 慢查询日志分析

使用 mloginfo 处理过的日志会在控制台输出, 显示还是比较友好的.

但是如果内容较大, 就不方便查看了, 如果可以导入到 excel 就比较方便筛选/排序. 但是 mloginfo 并没有提供生成到 excel 的功能. 可以通过一个 python 脚本辅助生成:

import pandas as pd
import re# 定义文件路径
mloginfo_output_file = "mloginfo_output.txt"  # 假设已经保存了 mloginfo 的输出内容
excel_output_file = "mloginfo_slow_queries.xlsx"# 定义解析逻辑
def parse_mloginfo(file_path):parsed_data = []with open(file_path, "r", encoding="utf-8") as f:for line in f:# 跳过表头或空行if line.startswith("namespace") or not line.strip():continue# 用正则表达式解析每一行match = re.match(r'^(?P<namespace>\S+)\s+(?P<operation>\S+)\s+(?P<pattern>\{.*?\}|None)\s+(?P<count>\d+)\s+(?P<min_ms>\d+)\s+(?P<max_ms>\d+)\s+(?P<percentile_95>\d+\.?\d*)\s+(?P<sum_ms>\d+)\s+(?P<mean_ms>\d+\.?\d*)\s+(?P<allowDiskUse>\S+)',line)if match:parsed_data.append(match.groupdict())return parsed_data# 调用解析逻辑
parsed_data = parse_mloginfo(mloginfo_output_file)# 如果有数据,转换为 DataFrame 并保存为 Excel
if parsed_data:df = pd.DataFrame(parsed_data)# 转换数据类型(如数字列)numeric_columns = ["count", "min_ms", "max_ms", "percentile_95", "sum_ms", "mean_ms"]for col in numeric_columns:df[col] = pd.to_numeric(df[col])# 保存为 Excel 文件df.to_excel(excel_output_file, index=False)print(f"慢查询已成功保存到 {excel_output_file}")
else:print("未找到可解析的慢查询数据。")

以下是一个更加完成的, 可以在命令参数中执行日志文件:

#!/usr/bin/env python
# -*- coding: utf-8 -*-import os
import re
import pandas as pd
import argparse# 设置命令行参数解析
parser = argparse.ArgumentParser(description="解析 mloginfo 输出并保存为 Excel")
parser.add_argument("log_file", type=str, help="mloginfo 输出文件路径")
args = parser.parse_args()# Step 1: 运行 mloginfo 命令,捕获输出
log_file = args.log_fileoutput_file = f"{log_file}.txt"excel_output_file = f"{log_file}.xlsx"os.system(f"mloginfo {log_file} --queries > {output_file}")# 定义解析逻辑
def parse_mloginfo(file_path):parsed_data = []with open(file_path, "r", encoding="utf-8") as f:for line in f:# 跳过表头或空行if line.startswith("namespace") or not line.strip():continue# 用正则表达式解析每一行match = re.match(r'^(?P<namespace>\S+)\s+(?P<operation>\S+)\s+(?P<pattern>\{.*?\}|None)\s+(?P<count>\d+)\s+(?P<min_ms>\d+)\s+(?P<max_ms>\d+)\s+(?P<percentile_95>\d+\.?\d*)\s+(?P<sum_ms>\d+)\s+(?P<mean_ms>\d+\.?\d*)\s+(?P<allowDiskUse>\S+)',line)if match:parsed_data.append(match.groupdict())return parsed_data# 调用解析逻辑
parsed_data = parse_mloginfo(output_file)# 如果有数据,转换为 DataFrame 并保存为 Excel
if parsed_data:df = pd.DataFrame(parsed_data)# 转换数据类型(如数字列)numeric_columns = ["count", "min_ms", "max_ms", "percentile_95", "sum_ms", "mean_ms"]for col in numeric_columns:df[col] = pd.to_numeric(df[col])# 调整列顺序,将 pattern 列移到最后columns = [col for col in df.columns if col != "pattern"] + ["pattern"]df = df[columns]# 保存为 Excel 文件df.to_excel(excel_output_file, index=False)print(f"慢查询已成功保存到 {excel_output_file}")
else:print("未找到可解析的慢查询数据。")
http://www.yayakq.cn/news/585721/

相关文章:

  • 主题网站开发介绍网站建设不赚钱
  • 做家具的企业网站胶南网站建设哪家好
  • 环评登记表在哪个网站做门户网站 建设 北京 航天
  • 石家庄有做网站的公司吗做仓单的网站
  • 做高端企业网站建设公司漯河北京网站建设
  • 安徽网站建设案例做旅游攻略比较好的网站
  • 网站程序源码下载网站关键词快速排名优化
  • 网站充值接口物流企业网站建设步骤
  • 网站制作完成后为了麻阳住房和城乡建设局网站
  • 网站的登陆注册页面怎么做网页设计心得300
  • 网站如何建设流程图国内wordpress博客
  • 沥林网站制作关于景区网站规划建设方案书
  • 推广网站的方法有福永论坛网站建设
  • 外贸免费自助建站平台wordpress shopify
  • 海南省城乡住房建设厅网站运营招聘
  • 企业网站托管方案内容响应式网站建设哪家好
  • 重庆专业的网站建设公司哪家好品牌包装设计
  • 申请一个网站大连旅游攻略
  • 如何查询网站建立时间设计网站 站什么网
  • 关于网站建设的大学高端网站开发有哪些
  • 公司怎么注册自己的网站阿里云建站和华为云建站哪个好
  • 网站怎么查看访问量手机在线网页制作
  • 网站建设公司果动c网站设计部
  • 盐城网站优化外贸网站建设 东莞
  • 淘宝客网站的建设麦包包的网站建设
  • 四川省城乡建设厅官方网站o2o网站建设服务
  • 口腔医院网站优化服务商最新国际新闻50条简短
  • 西安网站开发公司地址租用大型服务器多少钱
  • 做网站用什么需要好如何做视频网站的会员代理
  • 简单网站建设设计河南金建建设集团网站