时间:2021-05-19
一直运行的docker容器显示内存已经耗尽,并且容器内存耗尽也没出现重启情况,通过后台查看发现进程没有占用多少内存。内存的监控使用的是cadvisor,计算方式也是使用cadvisor的页面计算方式,所以决定对docker的内存计算做下研究。
docker version:
Client: Version: 1.12.6 API version: 1.24 Go version: go1.6.4 Git commit: 78d1802 Built: Tue Jan 10 20:20:01 2017 OS/Arch: linux/amd64Server: Version: 1.12.6 API version: 1.24 Go version: go1.6.4 Git commit: 78d1802 Built: Tue Jan 10 20:20:01 2017 OS/Arch: linux/amd64kubernetes version:
Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.2+coreos.0", GitCommit:"4c0769e81ab01f47eec6f34d7f1bb80873ae5c2b", GitTreeState:"clean", BuildDate:"2017-10-25T16:24:46Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}Server Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.2+coreos.0", GitCommit:"4c0769e81ab01f47eec6f34d7f1bb80873ae5c2b", GitTreeState:"clean", BuildDate:"2017-10-25T16:24:46Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}[docker@k8s busybox]$ cat busybox.yaml
apiVersion: v1kind: Podmetadata: name: busybox namespace: defaultspec: containers: - image: registry.dcos:8021/public/busybox:latest command: - sleep - "3600" imagePullPolicy: IfNotPresent name: busybox resources: limits: cpu: "2" memory: 2Gi requests: cpu: 100m memory: 64Mi restartPolicy: Always[docker@k8s busybox]$ kubectl create -f busybox.yaml
pod "busybox" created我们主要关注一下几个文件
文件名 含义 memory.usage_in_bytes 已使用的内存量(包含cache和buffer)(字节),相当于linux的used_meme memory.limit_in_bytes 限制的内存总量(字节),相当于linux的total_mem memory.failcnt 申请内存失败次数计数 memory.stat 内存相关状态memory.stat的文件包含的内容
字段 含义 cache 页缓存,包括 tmpfs(shmem),单位为字节 rss 匿名和 swap 缓存,不包括 tmpfs(shmem),单位为字节 mapped_file memory-mapped 映射的文件大小,包括 tmpfs(shmem),单位为字节 pgpgin 存入内存中的页数 pgpgout 从内存中读出的页数 swap swap 用量,单位为字节 active_anon 在活跃的最近最少使用(least-recently-used,LRU)列表中的匿名和 swap 缓存,包括 tmpfs(shmem),单位为字节 inactive_anon 不活跃的 LRU 列表中的匿名和 swap 缓存,包括 tmpfs(shmem),单位为字节 active_file 活跃 LRU 列表中的 file-backed 内存,以字节为单位 inactive_file 不活跃 LRU 列表中的 file-backed 内存,以字节为单位 unevictable 无法再生的内存,以字节为单位 hierarchical_memory_limit 包含 memory cgroup 的层级的内存限制,单位为字节 hierarchical_memsw_limit 包含 memory cgroup 的层级的内存加 swap 限制,单位为字节查看memory.limit_in_bytes文件
/sys/fs/cgroup/memory # cat memory.limit_in_bytes 2147483648计算容器的限制内存为2g,和yaml文件里面定义的限制内存一样。查看memory.usag_in_bytes文件
/sys/fs/cgroup/memory # cat memory.usage_in_bytes 2739376通过docker stats 容器id查看容器的占用内存,和memory.usage_in_bytes的数据相符。
再次通过docker stats 容器id查看容器的占用内存
查看memory.usage_in_bytes文件
/sys/fs/cgroup/memory # cat memory.usage_in_bytes 1619329024发现容器的占用内存达到了1.5g,查看memory.stat
/sys/fs/cgroup/memory # cat memory.statcache 1572868096rss 147456rss_huge 0mapped_file 0dirty 1572868096writeback 0swap 0pgpgin 384470pgpgout 433pgfault 607pgmajfault 0inactive_anon 77824active_anon 12288inactive_file 1572864000active_file 4096unevictable 0hierarchical_memory_limit 2147483648hierarchical_memsw_limit 4294967296total_cache 1572868096total_rss 147456total_rss_huge 0total_mapped_file 0total_dirty 1572868096total_writeback 0total_swap 0total_pgpgin 384470total_pgpgout 433total_pgfault 607total_pgmajfault 0total_inactive_anon 77824total_active_anon 12288total_inactive_file 1572864000total_active_file 4096total_unevictable 0memory.stat文件中的cache字段添加了1.5g,而inactive_file字段为1.5g,因此,dd所产生的文件cache计算在inactive_file上。这就导致了所看到的容器内存的监控居高不下,因为cache是可重用的,并不能反映进程占用内存。
一般情况下,计算监控内存可根据计算公式:
active_anon + inactive_anon = anonymous memory + file cache for tmpfs + swap cacheThereforeactive_anon + inactive_anon ≠ rss, because rss does not include tmpfs.active_file + inactive_file = cache - size of tmpfs所以实际内存使用计算为:
real_used = memory.usage_in_bytes - (active_file + inactive_file)(1)准备tomcat镜像和jmeter压测工具,tomcat的yaml文件如下
apiVersion: extensions/v1beta1kind: Deploymentmetadata: name: tomcat-deploymentspec: replicas: 1 template: metadata: labels: app: tomcat spec: containers: - name: tomcat image: registy.dcos:8021/public/tomcat:8 ports: - containerPort: 8080 resources: limits: cpu: "1" memory: 300Mi--- apiVersion: v1kind: Servicemetadata: labels: name: tomcat name: tomcat namespace: defaultspec: ports: - name: tomcat port: 8080 protocol: TCP targetPort: 8080 type: NodePort selector: app: tomcatyaml文件中限制tomcat镜像的使用内存为300Mi,执行命令生成文件。通过docker stats查看没有负载情况下tomcat容器的内存占用。
(2)提取tomcat的service nodePort端口
[docker@ecs-5f72-0006 ~]$ kubectl get svc tomcat -o=custom-columns=nodePort:.spec.ports[0].nodePortnodePort31401(3)登陆jmeter官网下载压测工具
在windows上运行jmeter工具,到bin目录点击运行jmeter,配置jmeter如下:
配置好测试选项后点击启动按钮开始压测,通过docker stats查看容器内存使用情况发现已经到达限制。
通过kubectl get pods查看pod的运行情况发现tomcat由于内存超过限制值被kill掉。
关于docker stats内存监控的问题一直存在,docker将cache/buffer纳入内存计算引起误解。docker内存的计算方式和linux的内存使用计算方式一致,也包含了cache/buffer。
但是cache是可重复利用的,经常使用在I/O请求上,使用内存来缓解可能被再次访问的数据,为提高系统性能。
在官方github上,也有很多人提交了关于内存监控的issue,直到了Docker 17.06版本,docker stats才解决了这个问题。
但是这也仅仅是docker stats的显示看起来正常了,而进入容器查看内存的使用还是包含的cache,如果直接使用cadvisor搜集的数据,还是会出现包含了cache的情况。
通过压测docker,最后发现当压测到程序的限制内存时,pod出现重启,这也解释了我们在使用docker监控时,即使内存占用99%+,却不出现pod重启的情况,这里面有相当一部分的内存是cache占用。
以上为个人经验,希望能给大家一个参考,也希望大家多多支持。如有错误或未考虑完全的地方,望不吝赐教。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
Docker容器内存监控linux内存监控要明白docker容器内存是如何计算的,首先要明白linux中内存的相关概念。使用free命令可以查看当前内存使用情况
本文实例为大家分享了python脚本监控docker容器的方法,供大家参考,具体内容如下脚本功能:1、监控CPU使用率2、监控内存使用状况3、监控网络流量具体代
除了从观念上重视系统研发生命周期的各个阶段以外,真正建设高可用的系统还需要一整套工具体系的支撑,这套体系包括压测体系、管控体系、监控体系、恢复体系和度量体系。1
【前言】最近想压测一下ITOO的考试系统,所以想在自己电脑上安装一下linux,然后安装一下jmeter进行压测一下。不过为什么要连接xshell呢,因为在虚拟
背景:最近在对一新开发Springboot系统做压测,发现刚开始压测时,可以正常对redis集群进行数据存取,但是暂停几分钟后,接着继续用jmeter进行压测时