NUMA对MySQL InnoDB的性能影响
http://blog.jcole.us/2010/09/28/mysql-swap-insanity-and-the-numa-architecture/
NUMA架构的CPU下,一个CPU有多个核心,那么每个CPU成为一个NODE
关闭这个特性时
一个NODE 使用自己的本地内存,而尽量不去访问其他NODE的内存,除非本地内存满了
Linux 如何处理NUMA架构
1 把处理器分到节点(NODE),现代处理器一般是每个节点一个处理器,一个处理器上多个核
2 为每个节点连接每个处理器的本地内存模块
3 计算节点间的沟通成本(节点距离)
通过numactl --hardware 命令可以看到Linux如何识别NUMA架构层
available: 4 nodes (0-3)
node 0 cpus: 0 1 2 3 4 5 6 7 32 33 34 35 36 37 38 39
node 0 size: 65512 MB
node 0 free: 2146 MB
node 1 cpus: 8 9 10 11 12 13 14 15 40 41 42 43 44 45 46 47
node 1 size: 65536 MB
node 1 free: 96 MB
node 2 cpus: 16 17 18 19 20 21 22 23 48 49 50 51 52 53 54 55
node 2 size: 65536 MB
node 2 free: 32362 MB
node 3 cpus: 24 25 26 27 28 29 30 31 56 57 58 59 60 61 62 63
node 3 size: 65536 MB
node 3 free: 21805 MB
node distances:
node 0 1 2 3
0: 10 11 11 11
1: 11 10 11 11
2: 11 11 10 11
3: 11 11 11 10
内存是平均分配到每个节点的
# Linux 如何处理资源分配
每个进程和线程继承父亲的NUMA策略.这个策略可以基于每个线程修改.
策略定义了一个进程允许被哪个节点甚至那个核心调度.
每个线程最初配分派给最"适合"的节点运行.线程也可以在其他地方运行,但是调度器试图确保现场运行在最优节点
默认情况下,内存的分配被指派到特定的节点上,即这个线程"当前"运行的节点.
在UMA/SMP 架构下,内存是平等对待的,而在NUMA下,分配其他节点的内存意味着cache的延迟和性能的下降
内存一旦分配到一个节点上,就不会移动到另一个节点,不管系统的需求,它会永远呆在那个节点上.
任何进程的NUMA策略可以被修改,通过numactl作为程序的封装,也可以使用 libnuma 编写代码管理NUMA策略.
例如使用numactl作为程序的封装:
1 使用指定策略分配内存:
使用"当前"节点,--localalloc参数指定,这是默认的模式
优先使用一个节点,但也可以使用其他节点,--preferred=node参数
永远使用一个节点或一组节点, --membind=nodes
交叉,轮询所有节点 --interleaved=all 或者 --interleaved=nodes
2 程序运行节点的选择
指定节点(--cpunodebind=nodes) 或者 一个核心或一组核心 (--physcpubind=cpus)
NUMA 对 MySQL 和 InnoDB 的意义
对于InnoDB和大多数数据库服务器(如Oracle),他们在Linux上的工作方式是,巨大的单一进程,带有多线程.
在NUMA架构下,内存被分派到不同的节点上,当你分配了系统50%以上的内存给一个进程,这就不是一个节点内能完成的事情了.
当不同的查询同时运行时,每个处理器都无法优先地去访问一个特定查询需要内存
事实证明这是一个很重要的问题.通过/proc/pid/numa_maps可以看到mysqld分配的所有内存,你会发现一个有趣的现象
如果你查找anon=size的值,
这是其中一行的值
7ecf14000000 default anon=3584 dirty=3584 active=1024 N1=3584
7ecf14000000 虚拟内存地址
default NUMA 策略
anon=number 匿名页面的数量
dirty 脏页,被修改的页
通常分配给进程的页总是使用的,因此都是脏的,但是由于fork,进程会有很多copy-on-write的页面的映射,他们不是脏的
swapcache=number
active 这个列出现,表示多少页面出现在活动列表,同时意味着还有一些不活跃的页面,它们将要被swapper换页出去
N0 and N1 每个节点的页面
通过一个脚本,可以统计出所有内存的情况
perl /data0/script/numa-maps-summary.pl < /proc/4417/numa_maps
N0 : 392133 ( 1.50 GB)
N1 : 792466 ( 3.02 GB)
N2 : 531028 ( 2.03 GB)
N3 : 3743392 ( 14.28 GB)
active : 4314131 ( 16.46 GB)
anon : 5457149 ( 20.82 GB)
dirty : 5456665 ( 20.82 GB)
mapmax : 268 ( 0.00 GB)
mapped : 1930 ( 0.01 GB)
swapcache : 484 ( 0.00 GB)
读取/proc/pid/numa_maps的信息会阻塞进程
http://blog.wl0.org/2012/09/checking-procnuma_maps-can-be-dangerous-for-mysql-client-connections/
不但是mysql 还有mangodb
根据官方文档的解释,Linux, NUMA, MongoDB 这三者不是很和谐,如果当前硬件是 NUMA 的,可以把它给关了:
# numactl --interleave=all sudo -u mongodb mongod --port xxx --logappend --logpath yyy --dbpath zzz
(vm.overcommit_ratio = 100, vm.overcommit_memory = 2)
vm.zone_reclaim_mode 设置为 0。
系统给 NUMA node 分配内存,如果 NUMA node 已经满了,这时候,系统会为本地的 NUMA node 回收内存而不是将多出来的内存给 remote NUMA node,这样整体的性能会更好,但是在某些情况下,给 remote NUMA node 分配内存会比回收本地的 NUMA node 更好,这时候就需要将 zone_reclaim_mode 给关闭了
numactl --interleave all
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。