Redis 关于内存碎片的解决方法

今天生产机报内存爆满异常被叫过去查看问题,通过各种排除最终定位到了Redis的内存碎片的问题,这篇博客将详细介绍Redis内存碎片问题并给出最佳实践解决此问题。

Redis的内存碎片原理

先引用Redis官方的原话:

当键被删除时,Redis 并不总是会释放(归还)内存给操作系统。这不是 Redis 的特别之处,但这是大多数 malloc() 实现的工作方式。例如,如果您用 5GB 的数据填充一个实例,然后删除相当于 2GB 的数据,则驻留集大小(也称为 RSS,即进程消耗的内存页数)可能仍约为 5GB,即使 Redis 声称用户内存约为 3GB。发生这种情况的原因是底层分配器无法轻松释放内存。例如,通常大多数被删除的键都分配在与仍然存在的其他键相同的页面上。

内部碎片

首先介绍一下Redis内存管理原理,操作系统内存管理思想一致是按照固定大小内存单位来分配而非按需分配,为了减少频繁分配内存,Linux下默认一次分配内存单位是4KB,Redis的内存也是按照单位进行分配的,例如范围有 8、16、32、64、128、256、512 字节为单位的大小,也有大的内存单位如2KB、4KB等。例如存储一个键值对大小为29字节,则会分配一个32字节的连续内存。那么就会造成3个字节的内存碎片,这3个字节就不会被分配给其他键值对。这个是内在的原因,称为内部碎片
在这里插入图片描述
在这里插入图片描述

外部碎片

Redis分配内存时,会根据需要申请一段连续的内存空间。但当Redis删除或修改数据时,释放的内存空间并不一定能被立即重新利用,尤其是当这些空闲内存空间大小不一致时,就可能导致内存碎片的出现。Redis释放的内存有可能是不连续的,这种不连续的内存很可能无法再次使用,最终造成了内存的浪费,这种空闲但是无法使用的内存便是内存碎片。比如说现在客户端存了100个键值对(每个键值对大小53字节),占用了一片连续的存储空间,分配内存单位为32字节,一共用了640个字节,如果这个时候删除了中间的1个键值对,那么中间将空出64个字节,这64个字节可能对于大于32字节的键值对无法有效使用(小于32字节的内存申请可能可以重新分配,但是概率较小),就会造成内存碎片。这些碎片称为外部碎片
在这里插入图片描述
总结:使用大白话说就是固定的内存分配单位就像一个个标准化的箱子,箱子有8、16、32、64等规格的,而你的物品假设为33规格的那么就需要连续的33内存存放,因此申请内存的时候可以分配连续的32+8的内存,但是如果中间只有32的内存,另外的8是不连续的,那么是无法分配这32内存,只能空着。除非刚好有一个小于32的对象,就可以被分配给到。

为了提高内存使用的效率,Redis内部使用内存分配器来对内存的申请和释放进行管理。Redis使用的内存分配器默认是jemalloc。

会导致的问题

一般而言,存取较小的键值对不太会导致内存碎片的问题,但是如果存储非常大的复合数据结构(Hash、Set、List),并且对这些对象频繁的修改、删除等操作,那么可能这个对象的实际大小假设为1.5GB,但是存储系统分配给Redis用来存储这个对象的实际内存为8个GB。这就会导致内存爆满的问题,而多出的这6.5GB其实就是内存碎片导致的。

查看内存碎片

登录到Redis客户端,输入命令info或者info memory就可以查看到内存信息,如下:

127.0.0.1:7001> info# Server
redis_version:7.2.5
...
# Memory
used_memory:1853040
used_memory_human:1.77M
used_memory_rss:9101312
used_memory_rss_human:8.68M
used_memory_peak:1902032
used_memory_peak_human:1.81M
used_memory_peak_perc:97.42%
used_memory_overhead:1632076
used_memory_startup:1596680
used_memory_dataset:220964
used_memory_dataset_perc:86.19%
allocator_allocated:2207416
allocator_active:2572288
allocator_resident:4976640
total_system_memory:1019793408
total_system_memory_human:972.55M
used_memory_lua:31744
used_memory_vm_eval:31744
used_memory_lua_human:31.00K
used_memory_scripts_eval:0
number_of_cached_scripts:0
number_of_functions:0
number_of_libraries:0
used_memory_vm_functions:32768
used_memory_vm_total:64512
used_memory_vm_total_human:63.00K
used_memory_functions:184
used_memory_scripts:184
used_memory_scripts_human:184B
maxmemory:0
maxmemory_human:0B
maxmemory_policy:noeviction
allocator_frag_ratio:1.17
allocator_frag_bytes:364872
allocator_rss_ratio:1.93
allocator_rss_bytes:2404352
rss_overhead_ratio:1.83
rss_overhead_bytes:4124672
mem_fragmentation_ratio:4.97
mem_fragmentation_bytes:7271160
mem_not_counted_for_evict:0
mem_replication_backlog:20508
mem_total_replication_buffers:20504
mem_clients_slaves:0
mem_clients_normal:3856
mem_cluster_links:10720
mem_aof_buffer:0
mem_allocator:jemalloc-5.3.0
active_defrag_running:0
lazyfree_pending_objects:0
lazyfreed_objects:0

对上面字段解释如下:

内存使用概述
used_memory: Redis 分配的内存总量(字节)。
used_memory_human: 以人类可读格式表示的 used_memory(例如:1.77M)。
used_memory_rss: 从操作系统角度来看,Redis 使用的实际内存(驻留集大小)。
used_memory_rss_human: 以人类可读格式表示的 used_memory_rss(例如:8.68M)。
内存峰值
used_memory_peak: Redis 历史上使用的最大内存量。
used_memory_peak_human: 以人类可读格式表示的 used_memory_peak。
used_memory_peak_perc: 当前内存使用量相对于历史峰值的百分比。
内存开销
used_memory_overhead: Redis 的内存开销,包括数据结构、客户端连接、备份等的内存。
used_memory_startup: Redis 启动时消耗的初始内存。
used_memory_dataset: 实际存储数据所使用的内存。
used_memory_dataset_perc: 数据集占用的内存相对于总内存使用量的百分比。
内存分配器
allocator_allocated: 通过内存分配器 jemalloc 分配的内存。
allocator_active: 内存分配器 jemalloc 实际使用的内存。
allocator_resident: jemalloc 分配的驻留内存。
系统内存
total_system_memory: 系统总内存。
total_system_memory_human: 以人类可读格式表示的系统总内存。
Lua 脚本
used_memory_lua: Lua 脚本使用的内存。
used_memory_vm_eval: Lua 脚本虚拟机使用的内存(评估脚本时)。
used_memory_lua_human: 以人类可读格式表示的 used_memory_lua。
used_memory_scripts_eval: 用于脚本评估的内存。
缓存的脚本
number_of_cached_scripts: 缓存的脚本数量。
number_of_functions: 注册的函数数量。
number_of_libraries: 加载的库数量。
虚拟内存
used_memory_vm_functions: 虚拟内存中函数使用的内存。
used_memory_vm_total: 虚拟内存总使用量。
used_memory_vm_total_human: 以人类可读格式表示的 used_memory_vm_total。
脚本和函数
used_memory_functions: 函数使用的内存。
used_memory_scripts: 脚本使用的内存。
used_memory_scripts_human: 以人类可读格式表示的 used_memory_scripts。
最大内存设置
maxmemory: Redis 配置的最大可用内存。
maxmemory_human: 以人类可读格式表示的 maxmemory。
maxmemory_policy: 内存超过最大值时的处理策略(例如:noeviction 表示不驱逐)。
内存碎片率
allocator_frag_ratio: 内存分配器碎片率(分配的内存与实际使用的内存之比)。
allocator_frag_bytes: 内存分配器碎片字节数。
allocator_rss_ratio: 分配器驻留集大小比率(分配的内存与驻留内存之比)。
allocator_rss_bytes: 分配器驻留内存字节数。
rss_overhead_ratio: RSS 的开销比率。
rss_overhead_bytes: RSS 的开销字节数。
mem_fragmentation_ratio: 内存碎片总比率。
mem_fragmentation_bytes: 内存碎片字节数。
其他内存统计
mem_not_counted_for_evict: 不计入驱逐的内存。
mem_replication_backlog: 复制日志的内存。
mem_total_replication_buffers: 总复制缓冲区的内存。
mem_clients_slaves: 从客户端使用的内存。
mem_clients_normal: 正常客户端使用的内存。
mem_cluster_links: 集群链接使用的内存。
mem_aof_buffer: AOF(追加文件)缓冲区的内存。
mem_allocator: 使用的内存分配器(如 jemalloc-5.3.0)。
active_defrag_running: 活动的碎片整理状态(是否正在运行)。
lazyfree_pending_objects: 懒惰释放待处理对象的数量。
lazyfreed_objects: 懒惰释放的对象数量。

最重要的是找到如下几个字段:

INFO memory
# Memory
used_memory:1074741736
used_memory_human:1024.30M
used_memory_rss:1997159792
used_memory_rss_human:1.86G
…
mem_fragmentation_ratio:1.86

这里有一个mem_fragmentation_ratio指标非常重要,它表示的就是Redis当前的内存碎片率。它是used_memory_rssused_memory相除的结果:mem_fragmentation_ratio = used_memory_rss/ used_memoryused_memory_rss 等于碎片内存+时间数据使用内存,也就是操作系统分给Redis的实际内存。used_memory是Redis存储数据实际使用的内存。可以发现如果不存在碎片内存,那么mem_fragmentation_ratio=1,但是这是最理想的情况,一般而言这个值为1.2较为健康,范围如下:

  • 1.5 > mem_fragmentation_ratio > 1:内存碎片在合理范围内。
  • mem_fragmentation_ratio > 1.5:需要考虑降低内存碎片率。
  • mem_fragmentation_ratio < 1:Redis没有足够的内存可以使用了,会导致redis一部分的内存数据会被换到swap中(硬盘中),之后redis访问swap中的数据延迟会变大,性能下降。

解决方法

重启Redis

低于4.0-RC3版本的Redis 并没有内置的内存碎片整理工具。如果想要清理内存碎片,可以通过重启的方式。当Redis重新启动时,它会通过RDB持久化功能将数据存储到磁盘,然后再从磁盘加载数据到内存,这个过程可以有效地清理内存碎片。但这种方法会导致服务的临时中断。因此非常不推荐!

配置 active-defrag

Active-defrag(主动碎片整理)是 Redis 的一个功能,用于在后台自动整理内存碎片,提升内存利用率和性能。内存碎片是指内存块之间存在空隙,导致内存使用效率下降。通过主动碎片整理,Redis 可以减少这些空隙,提高内存的有效利用。

从4.0-RC3版本开始引入了active-defrag 特性。可以在不重启的情况下,自动进行碎片清理。开启配置如下,此选项的默认值是关闭的,激活碎片整理可能会占据一些 CPU 时间。手动开启如下:

redis> config set activedefrag yes 

注意:自动清理内存碎片的功能需要该Redis的内存分配器是jemalloc时才能启用。启用后需要同时满足下面2个参数的设置条件时才会触发自动清理。如果使用手动开启而redis.conf文件中没有配置,那么会使用默认值进行碎片整理。

active-defrag-ignore-bytes 100mb    # 默认100MB,表示内存碎片空间达到100MB时才会整理碎片
active-defrag-threshold-lower 10    # 默认10,表示内存碎片空间占OS分配给redis的物理内存空间的比例达到10%时,即碎片率为1.1才整理

注意:配置碎片自动整理会占用主线程,如果配置不合理会导致主线程阻塞,因此下面配置很关键。

active-defrag-cycle-min 1  # 默认1,表示自动清理过程所用 CPU 时间的比例不低于1%,保证清理能正常开展;
active-defrag-cycle-max 25 # 默认25,表示自动清理过程所用 CPU 时间的比例不高于 25%,一旦超过,就停止清理,从而避免在清理时,大量的内存拷贝阻塞 Redis,导致响应延迟升高。

另外,一开始也可以在配置文件中启用和配置主动碎片整理,可以在 Redis 配置文件(redis.conf)中设置以下选项,下面的都是Redis7.0配置文件的默认值:

active-defrag yes #启用或禁用主动碎片整理。
active-defrag-ignore-bytes 100mb #小于此值的内存片段将被忽略,不进行碎片整理。
active-defrag-threshold-lower 10 # 低于此碎片率百分比时不进行碎片整理。(碎片率1.1)
active-defrag-threshold-upper 100 # 超过此碎片率百分比时最大限度进行碎片整理。(碎片率2)
active-defrag-cycle-min 1 # 最小碎片整理周期百分比,控制最小CPU资源用于碎片整理。
active-defrag-cycle-max 25 #最大碎片整理周期百分比,控制最大CPU资源用于碎片整理。
active-defrag-max-scan-fields 1000 #一次最大扫描字段个数

其他关于内存的命令如下:

在Redis客户端可以通过下面命令查看更加具体的内存情况:

> MEMORY HELP
MEMORY DOCTOR                        - 输出内存问题报告
MEMORY USAGE <key> [SAMPLES <count>] - 估计key的内存使用情况
MEMORY STATS                         - 显示内存使用情况详细信息
MEMORY PURGE                         - 要求分配器释放内存,主线程阻塞式执行
MEMORY MALLOC-STATS                  - 显示分配器内部统计信息

查看一个bigkey的内存占用:

> memory usage mybigkey
51344216

查看 内存详细情况

> memory stats
peak.allocated #redis启动以来,allocator分配的内存峰值,单位字节;同INFO的used_memory_peak
2604763296
total.allocated #allocator 当前分配的内存总字节数;同 INFO命令used_memeory
595052416
startup.allocated #Redis启动完成消耗的内存字节数;同INFO的used_memory_startup
11403768
replication.backlog #Redis复制积压缓存区内存字节数;同INFO的repl_backlog_size
0
clients.slaves #所有副本节点内存消耗总字节数(查询输出缓冲区,连接内存消耗)
0
clients.normal #Redis所有常规客户端内存消耗总字节数(查询输出缓冲区,连接内存消耗)
207724178
aof.buffer #当前和重写AOF缓冲区内存消耗总字节数;同 INFO命令aof_buffer_length和aof_rewrite_buffer_length之和
0
lua.caches
30536
db.0
overhead.hashtable.main #每个数据库中元数据占用的额外内存字节数。(redis的db就是一张hash表,首先就是这张hash表使用的内存,每一个key-value对都有一个dictEntry来记录他们的关系,元信息便包含该db中所有dictEntry使用的内存, redis使用redisObject来描述value所对应的不同数据类型(string、list、hash、set、zset),那么redisObject占用的空间也计算在元信息中。
10823332
overhead.hashtable.expires #用于存储key的过期时间耗费的内存资源。
865120
db.1
overhead.hashtable.main
275384
overhead.hashtable.expires
77552
....
overhead.total #Redis 额外内存消耗总字节数,例如:startup.allocated, replication.backlog, clients.slaves, clients.normal, aof.buffer 以及管理keyspace使用的内部数据接口消耗的内存字节数 同INFO的used_memory_overhead
233196498
keys.count #整个redis实例key的个数
183900
keys.bytes-per-key #每个key平均字节数
3173
dataset.bytes #Redis 实例中数据占用的总字节数,计算方法total.allocated减去overhead.total
361855918
dataset.percentage #Redis 数据消耗内存占总内存的百分比
61.998931884765625
peak.percentage #当前内存消耗占峰值内存消耗的百分比
22.844778060913086
fragmentation #同 INFO的 mem_fragmentation_ratio
0.96442300081253052

注意:以上命令是使用了内存分配器 jemalloc的情况下才能使用!Redis默认使用的是jemalloc分配器。 Redis 使用 jemalloc 作为默认的内存分配器。jemalloc 会将内存划分为不同大小的块,并在需要时分配和释放这些内存块。然而,在某些情况下,jemalloc 可能不会立即将未使用的内存返回给操作系统,这可能会导致内存看起来被占用而实际并未被使用。通过 MEMORY PURGE命令,可以强制 jemalloc 进行内存清理,将不再使用的内存返回给操作系统。但这个命令是主线程执行的,会阻塞其他命令。

最后注意在线上生产机上排查BigKey时最后把RDB文件拉取下来分析,禁止在生产机Master上使用如下命令寻找BigKey(主线程执行,阻塞其他命令,非要用可以在Slave节点操作):

redis-cli -p 9001 -a 12345678 --bigkeys

最佳实践

看了这么多,有没有想一个问题——为什么Redis官方默认配置设置activfrag = no ?。原因就是Redis内置了jemalloc这样的内存分配神器,它能够对已占用的空闲内存碎片利用到极致,Redis官方建议我们采用“鸵鸟算法”,即啥都不用做,只需要设置合适的maxmemory即可,即使碎片率非常大,后续的内存也是安全的,因为jemalloc会自己去利用碎片。这里的逻辑就是:Redis在删除键值的时候,会将内存还给jemalloc而不是操作系统。这部分内存可能是碎片,也可能不是,如果Redis需要申请内存则先看内存分配器是否有足够的可分配内存。额外的碎片过多是因为,Reids释放了大量内存,但jemalloc手中的大量的内存没有及时返回给操作系统,这可能是是因为没有设置合适的maxmemory原因。这个时候,其实Redis继续存入键值对并不会向操作系统申请内存而是向jemalloc申请。因此,如果不设置maxmemory,那么Redis可能无限地向操作系统申请内存,而不是jemalloc中的碎片内存。下面给出Redis官方原话(结合前面最开始的Redis原话阅读!):

但是jemalloc分配器非常智能,能够重用空闲的内存块,因此在您释放5GB数据集中的2GB后,当您再次开始添加更多键时,您会看到RSS(驻留集大小)保持稳定,不会随着您添加多达2GB的额外键而进一步增长。分配器基本上是试图重用先前(逻辑上)释放的 2GB 内存。正因为如此,当内存使用量在峰值时远大于当前使用的内存时,碎片率并不可靠。碎片率的计算方法是实际使用的物理内存(RSS值)除以当前使用的内存量(Redis执行的所有分配的总和)。
由于RSS 反映的是峰值内存,因此当(虚拟)使用的内存较低(因为释放了大量键/值)但RSS较高时,该比率将非常高RSS / mem_used。如果maxmemory没有设置,Redis会继续按其认为合适的方式分配内存,因此它会(逐渐)耗尽所有可用内存。因此,通常建议配置一些限制。

最佳实践就是设置 maxmemory = 0.8*系统内存,并且设置数据淘汰策略LRU算法来删除部分key,释放空间。最后,如果使用碎片整理,activefrag = yes CPU需要做出一定的让步。慎重使用!

以上有误麻烦指正!

参考来源

https://cloud.tencent.com/developer/article/2343994
https://blog.csdn.net/qq_41372835/article/details/130046321

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://xiahunao.cn/news/3249310.html

如若内容造成侵权/违法违规/事实不符,请联系瞎胡闹网进行投诉反馈,一经查实,立即删除!

相关文章

C/C++ xml库

文章目录 一、介绍1.1 xml 介绍1.2 xml 标准1.3 xml 教程1.4 xml 构成 二、C/C xml 库选型2.1 选型范围2.2 RapidXML2.3 tinyxml22.4 pugixml2.5 libxml 五、性能比较5.1 C xml 相关的操作有哪些5.2 rapidxml、Pugixml、TinyXML2 文件读取性能比较 六、其他问题6.1 version和 e…

PlantUML-UML 绘图工具安装、Graphviz安装、本地使用/在线使用、语法、图示案例

文章目录 前言本地安装vscode安装插件下载安装Graphviz配置Graphviz环境变量测试 在线使用演示PlantUML语法总结活动图&#xff08;新语法&#xff09;时序图类图用例图其他图 更多相关内容可查看 前言 本篇提供两种使用方式分别为 在线使用地址1&#xff1a;https://www.pla…

React安装(学习版)

1. 安装Node.js和npm 首先&#xff0c;确保你的电脑上已经安装了Node.js和npm&#xff08;Node Package Manager&#xff09;。你可以从 Node.js官网 下载安装包并按照提示进行安装。安装完成后&#xff0c;可以在命令行终端中验证Node.js和npm是否正确安装&#xff1a; node …

逆向案例二十五——webpack所需模块函数很多,某翼云登录参数逆向。

解决步骤&#xff1a; 网址&#xff1a;aHR0cHM6Ly9tLmN0eXVuLmNuL3dhcC9tYWluL2F1dGgvbG9naW4 不说废话&#xff0c;密码有加密&#xff0c;直接搜索找到疑似加密位置打上断点。 再控制台打印&#xff0c;分析加密函数 有三个处理过程&#xff0c;b[g]得到的是用户名,b[f] 对…

【Unity学习笔记】第二十 · 物理引擎脉络梳理(数值积分、碰撞检测、约束解决)

转载请注明出处: https://blog.csdn.net/weixin_44013533/article/details/139808452 作者&#xff1a;CSDN|Ringleader| 物理引擎综述 物理引擎是利用物理规则模拟物体运动和碰撞的模块&#xff0c;以在重力、弹力、摩擦力等各种力作用下做出真实运动表现&#xff0c;并对碰…

CI/CD的node.js编译报错npm ERR! network request to https://registry.npmjs.org/

1、背景&#xff1a; 在维护paas云平台过程中&#xff0c;有研发反馈paas云平台上的CI/CD的前端流水线执行异常。 2、问题描述&#xff1a; 流水线执行的是前端编译&#xff0c;使用的是node.js环境。报错内容如下&#xff1a; 2024-07-18T01:23:04.203585287Z npm ERR! code E…

高性能分布式IO系统BL205 OPC UA耦合器

边缘计算是指在网络的边缘位置进行数据处理和分析&#xff0c;而不是将所有数据都传送到云端或中心服务器&#xff0c;这样可以减少延迟、降低带宽需求、提高响应速度并增强数据安全性。 钡铼BL205耦合器就内置边缘计算功能&#xff0c;它不依赖上位机和云平台&#xff0c;就能…

从PyTorch官方的一篇教程说开去(1 - 初心)

原文在此&#xff0c;喜欢读原汁原味的可以自行去跟&#xff0c;这是一个非常经典和有学习意义的例子&#xff0c;在此向老爷子们致敬 - https://pytorch.org/tutorials/intermediate/reinforcement_q_learning.html 开源文化好是好&#xff0c;但是“公地的悲哀”这点避不开…

Springboot项目远程部署gitee仓库(docker+Jenkins+maven+git)

创建一个Springboot项目&#xff0c;勾选web将该项目创建git本地仓库&#xff0c;再创建远程仓库推送上去 创建TestController RestController RequestMapping("/test") public class TestController { GetMapping("/hello") public String sayHelloJe…

Mybatis——Lombok

偷懒插件&#xff0c;能有效减少代码量&#xff0c;增加注释即可。 下载&#xff1a; 设置——插件——搜索Lombok——下载安装 导入依赖&#xff1a; <dependencies><dependency><groupId>org.projectlombok</groupId><artifactId>lombok<…

FastAPI 学习之路(六十)打造系统的日志输出

我们要搭建日志系统&#xff0c;可以使用loguru&#xff0c;很不错的一个开源日志系统 pip install loguru 我们在common创建log.py&#xff0c;使用方式也很简单 import os import timefrom loguru import logger# 日志的路径 log_path os.path.join(os.getcwd(), "log…

AJAX基本用法

1.axios 基本语法: axios({url: 目标资源地址 }).then((result) > {// 对服务器返回的数据做后续处理 })查询参数&#xff08;在params中设置&#xff09;&#xff1a; 查询参数通常是指在URL中传递给服务器以获取动态数据或指定请求条件的一部分。它们位于URL中问号(?)后…

Spire.PDF for .NET【文档操作】演示:如何在 C# 中切换 PDF 层的可见性

我们已经演示了如何使用 Spire.PDF在 C# 中向 PDF 文件添加多个图层以及在 PDF 中删除图层。我们还可以在 Spire.PDF 的帮助下在创建新页面图层时切换 PDF 图层的可见性。在本节中&#xff0c;我们将演示如何在 C# 中切换新 PDF 文档中图层的可见性。 Spire.PDF for .NET 是一…

ClickHouse 入门(二)【基础SQL操作】

1、ClickHouse 1.1、SQL 操作 这里只介绍一些和我们之前 MySQL 不同的语法&#xff1b; 1.1.1、Update 和 Delete ClickHouse 提供了 Delete 和 Update 的能力&#xff0c;这类操作被称为 Mutation 查询&#xff08;可变查询&#xff09;&#xff0c;它可以看 做 Alter 的一…

iOS ------ 编译链接

编译流程分析 编译可以分为四步&#xff1a; 预处理&#xff08;Prepressing)编译&#xff08;Compilation&#xff09;汇编 &#xff08;Assembly)链接&#xff08;Linking&#xff09; 预编译&#xff08;Prepressing&#xff09; 过程是源文件main.c和相关头文件被&#…

使用Redis的SETNX命令实现分布式锁

什么是分布式锁 分布式锁是一种用于在分布式系统中控制多个节点对共享资源进行访问的机制。在分布式系统中&#xff0c;由于多个节点可能同时访问和修改同一个资源&#xff0c;因此需要一种方法来确保在任意时刻只有一个节点能够对资源进行操作&#xff0c;以避免数据不一致或…

Kafka Producer之幂等性

文章目录 1. 启用幂等性2. 底层变化3. 数据不重复4. 数据有序 幂等性通过消耗时间和性能的方式&#xff0c;解决乱序和重复问题。 但是只能保证同一生产者在一个分区中的幂等性。 1. 启用幂等性 //创建producerHashMap<String, Object> config new HashMap<>();…

ELK kibana查询与过滤

ELK kibana查询与过滤 1、通过布尔操作符 AND 、 OR 和 NOT 来指定更多的搜索条件(注意&#xff1a;这AND、OR、NOT必须大写)。例如&#xff0c;搜索message包含服务层关键词并且日志级别为INFO的条目&#xff0c;您可以输入 message:“服务层” AND level:“INFO”。 2、要搜…

Spring Boot集成syslog快速入门Demo

1.什么syslog&#xff1f; Syslog-ng是由Balabit IT Security Ltd.维护的一套开源的Unix和类Unix系统的日志服务套件。它是一个灵活的、可伸缩的系统日志记录程序。对于服务器日志集中收集&#xff0c;使用它是一个不错的解决方案。syslog-ng (syslog-Next generation) 是sysl…

STM32全栈嵌入式人脸识别考勤系统:融合OpenCV、Qt和SQLite的解决方案

1. 项目概述 本项目旨在设计并实现一个基于STM32的全栈人脸识别考勤系统。该系统结合了嵌入式开发、计算机视觉和数据库技术&#xff0c;实现了自动人脸检测、识别和考勤记录功能。 主要特点: 使用STM32F4系列微控制器作为主控制器采用OpenCV进行人脸检测和识别Qt开发跨平台…