Docker容器的日志如何处理
这篇文章主要介绍“Docker容器的日志如何处理”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Docker容器的日志如何处理”文章能帮助大家解决问题。
docker有很多的日志插件,默认使用 json-file,只有使用json-file时,sudo docker logs -f 才可以显示,输入以下命令查看docker日志插件:
$ sudo docker info | grep logging
这里先说明一下,当容器运行时,docker会在宿主机上创建一个该容器相关的文件,然后将容器产生的日志转存到该文件下。docker logs -f 命令就会找到该文件内容并显示在终端上。
我们都知道docker logs -f会将所有对应的服务日志输出到终端,无论服务的部署在哪个节点上,那么我现在提出一个问题,是否每个节点对应的容器文件,都会保存该服务的完整日志备份,还是只保存该节点服务对应容器产生的日志?
因为这个问题涉及到每个节点如果都用filebeat监听宿主机的容器日志文件,那么如果每个节点的容器日志都是一个完整的备份,日志就会重复,如果只是保存该节点上容器的日志,就不会。
答案是只保留该节点上容器的日志,docker logs -f 命令只不过在overlay网络模型上走了一层协议,把在其它节点上的相同的容器日志汇聚起来。
默认使用docker的json-file,首先配置daemon:
$ sudo dockerd \
--log-driver=json-file \
--log-opt labels=servicename
启动容器需要添加如下参数:
$ sudo docker service update --label servicename=test
或者直接在docker-compose.yml中标记:
version: "3"
services:
go-gin-demo:
image: chenghuizhang/go-gin-demo:v3
ports:
- 8081:8081
networks:
- overlay
deploy:
mode: replicated
replicas: 3
labels:
servicename: go-gin-demoxxxxxxx
logging:
options:
labels: "servicename"
networks:
overlay:
在每个节点安装filebeat,并且filebeat.yml配置如下:
filebeat.prospectors: - type: log paths: # 容器的日志目录 - /var/lib/docker/containers
目录中,格式如下:{ "log":"[gin-debug] [warning] now gin requires go 1.6 or later and go 1.7 will be required soon.", "stream":"stderr", "attrs":{ "tag":"chenghuizhang/go-gin-demo:v3@sha256:e6c0419d64e5eda510056a38cfb803750e4ac2f0f4862d153f7c4501f576798b/mygo.2.jhqptjugfti2t4emf55sehamo/647eaa4b3913", "servicename":"test" }, "time":"2019-01-29t10:08:59.780161908z" }
在logstash中格式化日志:
filter { grok { patterns_dir => "/etc/logstash/conf.d/patterns" match => {"message" => "%{timestamp_iso8601:time}%{servicename:attr.servicename}%{docker_tag:attr.tag}"} }
关于“Docker容器的日志如何处理”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识,可以关注编程网行业资讯频道,小编每天都会为大家更新不同的知识点。
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341