Shell 解决Redis Slow Log去重问题

发布时间:2024-02-16
建站服务器
老东家监测redis的慢查询日志,采用crontab 每隔一段时间对慢查询日志采样,然后追加写入一个文本文件。
所以文本文件中有很多重复的慢查询日志
如何对整段重复的慢查询日志去重呢?
采用shell 命令的方式最简单和直接。
awk'/^1\\\\)/{prints;s=""};{s=(s""$0)};end{prints}'b.txt|sort|uniq|sed's//\\\\n/g'|awk'/^1\\\\)\\\\(integer\\\\)/{rc=rc 1;rowdata=rc")\\\\t"$1""$2""$3"\\\\n\\\\t"$4""$5""$6""$7"\\\\n\\\\t"$8""$9""$10;printrowdata};/^/{print"\\\\t"$0}end{print"不重复日志总数:"rc}'
核心就是把整段的redis日志先合并为一行,去重之后,在还原格式。
下面是用于测试的附件
redisslowlog.txt
附王工对这个问题的需求描述和说明。
https://blog.csdn.net/wzy0623/article/details/83652539?tdsourcetag=s_pcqq_aiomsg
上一个:windows10官方下载的u盘装机(win10官方安装教程u盘安装步骤)
下一个:华为p30隔空操作怎么设置密码(华为p30隔空操作怎么设置手机)

营业线桥涵的施工要点有哪些?
风冷模块机与智能多联机是什么关系?
年休假制度的规定有什么
台尔曼忍冬的繁殖与栽培
《径山茶图考》之径山茶之文化
惠普打印机有多少种型号,惠普复印机有哪些型号
电磁流量计几种连接方式
LR2728-24R040F1,旺诠合金2728 40mΩ ±1% 4W
坚果云链接(坚果怎么和电脑连接)
360的arp防火墙在哪里(360 arp防护)