| .. | ||
| README.md | ||
Docker Cheat Sheet
Deseja melhorar este cheat sheet? Veja a seção de Contribuição
Conteúdo
- Porque usar docker
- Pré-requisitos
- Instalação
- Containers
- Imagens
- Redes
- Registro e Repositório
- Dockerfile
- Camadas
- Links
- Volumes
- Expondo portas
- Boas praticas
- Docker-Compose
- Segurança
- Dicas
- Contribuição
Porque usar Docker
"Com Docker, desenvolvedores podem construir qualquer app em qualquer linguagem usando quanquer conjunto de ferramentas. Apps Dockerizados são completamente portáveis e podem rodar em qualquer lugar -- OS X e Windows laptops, servidores QA rodando Ubuntu na nuvem e data centers em produção rodando Red Hat em Máquinas Virtuais.
Desenvolverodes podem iniciar a utilizá-lo rapidamente com um dos mais de 13.000 apps disponíveis no Docker hub. Docker gerencia e rastreia alterações e dependências, tornando mais fácil para sysadmins o entendimento do funcionamento de apps construido pelos desenvolvedores. Além disso, com Docker Hub, desenvolvedores podem automatizar o pipeline de build e compartilhar artifacts com colaboradores através de repositórios públicos ou privados.
Docker auxilia desenvilvedores a construir e entregar aplicações de alta qualidade de maneira mais rápida." -- O que é Docker (What is Docker)
Pré-requisitos
Eu utilizo Oh My Zsh com Docker plugin para autocompletar os comandos do docker.
Linux
O kernel 3.10.x é o requisito mínimo para o uso do Docker.
MacOS
É necessário “Mountain Lion” 10.8 ou mais recente.
Windows 10
É necessário que o Hyper-V esteja habilitado na BIOS. Além disso, para precessadores intel, o VT-D também precisa estar habilidado caso esteja disponível.
Windows Server
Windows Server 2016 é a versão mínima necessária para instalar o docker e o docker-compose. Existem limitações nessa versão, como por exemplo múltiplas redes virtuais e containers Linux. Windows Server 2019 ou posterior é recomendado.
Instalação
Linux
Um simples, fácil e rápido script é disponibilizado pelo Docker:
curl -sSL https://get.docker.com/ | sh
Se você não deseja rodar um shell script aleatório de internet, basta acessar as instruções de instalação para a sua distribuição.
Se você não sabe nada sobre Docker, provavelmente você deveria seguir essa série de tutoriais antes de continuar.
macOS
Baixe e instale o Docker Community Edition. Se você possui o Homebrew-Cask, apenas utilize o comando brew cask install docker. Ou baixe e instale o Docker Toolbox. Docker para Mac é ok, mas ele ainda não é tão pronto quanto a instalação da VirtualBox. Veja a comparação.
NOTA Docker Toolbox está no estado legacy. Você deveria usar o Docker Community Edition. Veja o Docker Toolbox.
Assim que você instalar o Docker Community Edition, clique no ícone do Docker no Launchpad. Em seguida inicie um container:
docker run hello-world
É isso! Agora você tem um Docker container rodando.
Se você não sabe nada sobre Docker, provavelmente você deveria seguir essa série de tutoriais antes de continuar.
Windows 10
Você encontra instruções para instalar o Docker Desktop para Windows neste link.
Uma vez instalado, abra o powershell como administrador
#Exibe a versão do docker instalado
docker version
#Todos comandos pull, create, e run 'hello-world' em apenas um:
docker run hello-world
Para continuar as instruções neste cheat sheet, clique com botão direito do mouse no ícone do Docker -- no menu iniciar ou onde quer que seja -- e vá em configurações. Para montar volumes, você precisa habilitar o disco C:/ para que as informaçõe sejam transmitidas para os containers (que ainda será explicado neste artigo).
Para trocar entre containers Windows e Linux, clique com o botão direito no icone do Docker e, na sequência, clique no botão para trocar sistema operacional dos containers. Após fazer isso, todos os containers ques estiveram rodando serão desligados e ficaram inacessíveis até que o SO do container ser trocado novamente.
Além disso, se você possui WSL ou WSL2 instalado no seu desktop, você pode instalar o Kernel do Linux para Windows. Instruções para executar tal tarefa podem ser encontradas [aqui] here. Atente-se ao fato de que para isso, é necessário o recurso do Subsistema Windows para Linux. Isso permitirá que os containers sejam acessados pelos sistemas operacionais WSL, bem como o ganho de eficiêcia da execução dos sistemas operacionais WSL no Docker. Por fim, tamém é preferível o uso do terminal Windows para tal tarefa.
Windows Server 2016 / 2019
Siga as instruções da Microsoft disponíveis aqui
Se estiver usando a última versão de 2019, esteja preparado para trabalhar com o powershell, uma vez que esta versão não possui interface desktop. Quando inciar a máquina, ela vai logar e ir direto para um janela powershell. É recomendado instalar um editor de texto dentre outras ferramentas utilizando Chocolatey.
Após a instalação, esses comandos devem funcionar:
#Exibe a versão do docker instalado
docker version
#Todos comandos pull, create, e run 'hello-world' em apenas um:
docker run hello-world
O Windows Server 2016 não é capar de rodar images Linux.
O Windows Server Build 2004 é capar de rodar containers Linux e Windows simultâneamente através do isolamento Hyper-V. Quando rodar os containers, utilize o comando --isolation=hyperv que vai isolar o container utilizando uma instância de kernel separada.
Checando a versão
É muito importante que você sempre saiba a versão do Docker que você está utilizando. Isso é muito útil porque você vai saber quais features são compatíveis com aquilo que você está rodado. Além disso, isso também é importante pois você saberá quais containers você deve rodar a partir da Docker store quando você estiver tentando usar containers templates. Sendo assim, vamos dar um olhar em como saber a versão do Docker que você está rodando no momento.
docker version: mostra a versão do Docker que você está rodando
Obtendo a versão do servidor:
$ docker version --format '{{.Server.Version}}'
1.8.0
Você também pode fazer um dump dos dados em JSON:
$ docker version --format '{{json .}}'
{"Client":{"Version":"1.8.0","ApiVersion":"1.20","GitCommit":"f5bae0a","GoVersion":"go1.4.2","Os":"linux","Arch":"am"}
Containers
O processo básico isolado do Docker. Containers são para máquinas virtuais o que threads são para processos. Ou você pode imaginá-los como chroots com esteróides.
Ciclo de vida
docker createcria um container mas não o inicia.docker renamepermite renomear um container.docker runcria e inicia um container em uma única operaçãodocker rmdeleta um containerdocker updateatualiza os limites de recurso de um container.
Normalmente, se você rodar um container sem utilizar nenhuma opção ele vai iniciar e parar imediatamente. Se você deseja que ele continue rodando você pode usar o comando docker run -td <container_id>. A opção -t vai alocar uma sessão pseudo-TTY e o -d vai desacomplar o container automaticamente (ou seja, vai rodar o container em background e imprimir o ID do container).
Se você deseja um container transiente, docker run --rm vai remover o container assim que ele parar.
Se você deseja mapear um diretório da máquina host para o container do Docker, docker run -v $HOSTDIR:$DOCKERDIR. Saiba mais em Volumes.
Se você também deseja remover o volume associado ao container, ao deletar o container você deve incluir a opção -v, por exemplo, docker rm -v.
Também existe o logging driver, disponível para containers individuais no docker 1.10. Para rodar o docker com um log driver customizado (ou seja, para syslog), use docker run --log-driver=syslog.
Outra opção muito útil é o docker run --name <yourname> <docker_image> porque você pode especificar o --name dentro do comando run que vai lhe permite iniciar e parar o container através do nome que você especificou quando o criou.
Iniciando e parando
docker startinicia um container, então ele passa a rodar.docker stoppara um container que esteja rodando.docker restartpara e inici um container.docker pausepausa um container que esteja rodando, "congelando" ele da maneira que está.docker unpausevai despausar um container que estava rodando.docker waitbloqueia o container até que ele seja parado.docker killenvia um SIGKILL para um container que esteja rodando.docker attachvai se conectar a um container que esteja rodando.
Se você deseja desacoplar um container que esteja rodando, utilize Ctrl + p, Ctrl + q. Se você deseja integrar um container com o gerenciador de processos do host, inicialize o daemon com -r=false e depois use docker start -a.
Se você deseja expor portas do container través do host, veja a seção expondo portas.
Políticas de reinicialização para instâncias "crashadas" do docker são cobridas aqui.
Restrições de CPU
Você pode limitar o uso da CPU, seja usando uma porcentagem de todas as CPUs ou usando cores específicos.
Por exemplo, você pode usar a configuração cpu-shares. A configuração é um pouco estranha -- 1024 significa 100% da CPU, então se você quer um container que toma 50% de todos os cores, você deve utilizar 512. Veja https://goldmann.pl/blog/2014/09/11/resource-management-in-docker/#_cpu para mais:
docker run -it -c 512 agileek/cpuset-test
Você também pode usar alguns cores de uma CPU com o comando cpuset-cpus. Veja https://agileek.github.io/docker/2014/08/06/docker-cpuset/ para mais detalhes e alguns vídeos bem legais:
docker run -it --cpuset-cpus=0,4,6 agileek/cpuset-test
Observe que o Docker ainda pode enxergar todas as CPUs de dentro do container -- ele apenas não está usando todas elas. Veja https://github.com/docker/docker/issues/20770 para mais detalhes.
Restrições de memória
Você também pode setar restrições de memória no Docker:
docker run -it -m 300M ubuntu:14.04 /bin/bash
Capabilities
Linux capabilities podem ser setadas utilizand as opções cap-add e cap-drop. Veja See https://docs.docker.com/engine/reference/run/#/runtime-privilege-and-linux-capabilities para mais detalhes. Elas devem ser utilizadas para aumentar a seguraça do sistema.
Para montar um filesystem baseado no FUSE, você precisa combinar tanto --cap-add quanto --device:
docker run --rm -it --cap-add SYS_ADMIN --device /dev/fuse sshfs
Para dar acesso a um único device:
docker run -it --device=/dev/ttyUSB0 debian bash
Para dar acesso a todos os devices:
docker run -it --privileged -v /dev/bus/usb:/dev/bus/usb debian bash
Para mais informações sobre privilégios em containers clique aqui.
Info
docker psmotra os containers que estão rodando.docker logsobtém um log dos containers. (Você pode usar um log customizado, mas eles estão disponíveis apenas parajson-fileejournaldna versão 1.10).docker inspectolha para todas as informações de um container (incluindo o endereço IP).docker eventsobtém os eventos de um container.docker portmostra a porta pública de um container.docker topmostra os processos rodando dentro de um container.docker statsmostra uma estatística dos recursos que o container está utilizando.docker diffmostra os arquivos alterados pelo FS de um container.
docker ps -a mostra os containers que estão rodando e os que foram parados.
docker stats --all mostra uma lista de todos os containers. O padrão é mostrar apenas os que estão rodando.
Importar / Exportar
docker cpcopia arquivos ou pastas entre o container e o filesystem local.docker exporttransforma o filesystem do container em um fluxo de arquivo tarball para STDOUT.
Executando comandos
docker execexecuta um comando dentro do container.
Por exemplo, para entrar em um container fictício, que esteja rodando, chamado foo, inclua um shell a ele da seguinte maneira: docker exec -it foo /bin/bash.
Imagens
Imagens são apenas templates de um container docker.
Ciclo de vida
docker imagesmostra todas as imagens.docker importcria uma imagem a partir de um tarball.docker buildcria uma imagem a partir de um Dockerfile.docker commitcria uma imagem a partir de um container, pausando ele temporariamente caso ele esteja rodando.docker rmiremove uma imagem.docker loadcarrega uma imagem a partir de um arquivo tar no STDIN, incluindo imagess and tags (a partir da versão 0.7).docker savesalva uma imagem em um arquivo tar através do STDOUT com todas as camadas pais, tags e versões (a partir do 0.7).
Info
docker historymostra o histórico de todas as imagens.docker tagdar uma tag a uma imagem (local ou registry)
Fazendo uma limpeza
Você pode utilizar o comando docker rmi para remover imagens específicas, porém, existe uma ferramenta chamada docker-gc, que de maneira segura, limpa as imagens que não está sendo utilizada por nenhum container.
that will safely clean up images that are no longer used by any containers. A partir do docker 1.13, o comando docker image prune também está disponível para remover imagens que não estão sendo usadas. Veja a seção Prune.
Carregar/Salvar imagens
Carregue uma imagem a partir do arquivo:
docker load < my_image.tar.gz
Salve uma imagem existente usando:
docker save my_image:my_tag | gzip > my_image.tar.gz
Importar/Exportar containers
Importe um container com uma imagem a partir de um arquivo:
cat my_container.tar.gz | docker import - my_image:my_tag
Exporte um container existente usando:
docker export my_container | gzip > my_container.tar.gz
Diferenças entre carregar uma imagem salva e importar um container exportado como uma imagem
Carregar uma imagem usanfo o comando load cria uma nova imagem, incluindo o seu histórico. Importar um container como uma imagem usando o comando import cria uma nova imagem excluindo o seu histórico, o que resulta em uma imamgem de tamanho menor do que usando o comando anterior.
Rede
O Docker possui features de rede. Automaticamente, ele cira 3 interfaces de rede quando você o instala (bridge, host, none). Um novo container é inicializado, por padrão, dentro da rede bridge. Para habilitar a comunicação entre multiplos containers, você pode criar uma nova rede e iniciarlizar o mesmo com ela. Isso vai habilitar a comunicação entre os containers dentro dela ao mesmo tempo que os isola dos outros containers que não estejam conectados nesta rede. Além disso, isso permite mapear os nomes dos containers com o seus respectivos endereços IP. Veja trabalhando com redes para mais detalhes.
Ciclo de vida
docker network create <name>cria uma nova rede (tipo padrão: bridge).docker network rm <name>remode uma ou mais redes especificadas pelo nome ou identificador. Nenhum container pode se conectar em uma rede quando deletada.
Info
docker network lslista todas as redes.docker network inspect <name>mostra informações detalhadas de uma ou mais redes.
Conexão
docker network connect <network> <container>Conecta um container a uma rededocker network disconnect <network> <container>Desconecta um container de uma rede
Você pode especificar um endereço IP para um container:
# cria uma nova rede bridge com sua subnet e gateway para seu bloco de endereço IP
docker network create --subnet 203.0.113.0/24 --gateway 203.0.113.254 iptastic
# roda um container nginx com um IP específico para o dado bloco
$ docker run --rm -it --net iptastic --ip 203.0.113.2 nginx
# da um culr no IP a partir de qualquer outro local (assumindo que este seja um IP público)
$ curl 203.0.113.2
Registry & Repositório
Um repositório é uma coleção hosteada de imagens com tagas que juntas criam um sistema de arquivo para um container;
Um registry é um host -- ou seja, um servidor que armazena repositórios e disponibiliza um API HTTP para gerencias o upload e download dos repositórios.
O Docker.com hostea seus prórpios índices em uma central de registries qie contém um grande número de repositórios. Sendo assim, essa central não é muito boa em verificar a procedência das imagens e deve ser evitada caso segurança seja algo crítico para você.
docker loginefetua login em um registry.docker logoutefetua logout de um registry.docker searchbusca imagens dentro do registry.docker pullefetua um pull de uma imagem do registry para sua máquina local.docker pushefetua um push de uma imagem para o registry a partir da sua máquina local.
Rodando um registry local
Você pode rodar um registry local utilizando o projeto de distribuição docker e seguindo as instruções de deploy local.
Além disso, você pode se interessar pela lista de emails.
Dockerfile
The configuration file. Sets up a Docker container when you run docker build on it. Vastly preferable to docker commit.
Here are some common text editors and their syntax highlighting modules you could use to create Dockerfiles:
- If you use jEdit, I've put up a syntax highlighting module for Dockerfile you can use.
- Sublime Text 2
- Atom
- Vim
- Emacs
- TextMate
- VS Code
- Also see Docker meets the IDE
Instructions
- .dockerignore
- FROM Sets the Base Image for subsequent instructions.
- MAINTAINER (deprecated - use LABEL instead) Set the Author field of the generated images.
- RUN execute any commands in a new layer on top of the current image and commit the results.
- CMD provide defaults for an executing container.
- EXPOSE informs Docker that the container listens on the specified network ports at runtime. NOTE: does not actually make ports accessible.
- ENV sets environment variable.
- ADD copies new files, directories or remote file to container. Invalidates caches. Avoid
ADDand useCOPYinstead. - COPY copies new files or directories to container. By default this copies as root regardless of the USER/WORKDIR settings. Use
--chown=<user>:<group>to give ownership to another user/group. (Same forADD.) - ENTRYPOINT configures a container that will run as an executable.
- VOLUME creates a mount point for externally mounted volumes or other containers.
- USER sets the user name for following RUN / CMD / ENTRYPOINT commands.
- WORKDIR sets the working directory.
- ARG defines a build-time variable.
- ONBUILD adds a trigger instruction when the image is used as the base for another build.
- STOPSIGNAL sets the system call signal that will be sent to the container to exit.
- LABEL apply key/value metadata to your images, containers, or daemons.
- SHELL override default shell is used by docker to run commands.
- HEALTHCHECK tells docker how to test a container to check that it is still working.
Tutorial
Examples
- Examples
- Best practices for writing Dockerfiles
- Michael Crosby has some more Dockerfiles best practices / take 2.
- Building Good Docker Images / Building Better Docker Images
- Managing Container Configuration with Metadata
- How to write excellent Dockerfiles
Layers
The versioned filesystem in Docker is based on layers. They're like git commits or changesets for filesystems.
Links
Links are how Docker containers talk to each other through TCP/IP ports. Atlassian show worked examples. You can also resolve links by hostname.
This has been deprecated to some extent by user-defined networks.
NOTE: If you want containers to ONLY communicate with each other through links, start the docker daemon with -icc=false to disable inter process communication.
If you have a container with the name CONTAINER (specified by docker run --name CONTAINER) and in the Dockerfile, it has an exposed port:
EXPOSE 1337
Then if we create another container called LINKED like so:
docker run -d --link CONTAINER:ALIAS --name LINKED user/wordpress
Then the exposed ports and aliases of CONTAINER will show up in LINKED with the following environment variables:
$ALIAS_PORT_1337_TCP_PORT
$ALIAS_PORT_1337_TCP_ADDR
And you can connect to it that way.
To delete links, use docker rm --link.
Generally, linking between docker services is a subset of "service discovery", a big problem if you're planning to use Docker at scale in production. Please read The Docker Ecosystem: Service Discovery and Distributed Configuration Stores for more info.
Volumes
Docker volumes are free-floating filesystems. They don't have to be connected to a particular container. You can use volumes mounted from data-only containers for portability. As of Docker 1.9.0, Docker has named volumes which replace data-only containers. Consider using named volumes to implement it rather than data containers.
Lifecycle
Info
Volumes are useful in situations where you can't use links (which are TCP/IP only). For instance, if you need to have two docker instances communicate by leaving stuff on the filesystem.
You can mount them in several docker containers at once, using docker run --volumes-from.
Because volumes are isolated filesystems, they are often used to store state from computations between transient containers. That is, you can have a stateless and transient container run from a recipe, blow it away, and then have a second instance of the transient container pick up from where the last one left off.
See advanced volumes for more details. Container42 is also helpful.
You can map MacOS host directories as docker volumes:
docker run -v /Users/wsargent/myapp/src:/src
You can use remote NFS volumes if you're feeling brave.
You may also consider running data-only containers as described here to provide some data portability.
Be aware that you can mount files as volumes.
Exposing ports
Exposing incoming ports through the host container is fiddly but doable.
This is done by mapping the container port to the host port (only using localhost interface) using -p:
docker run -p 127.0.0.1:$HOSTPORT:$CONTAINERPORT --name CONTAINER -t someimage
You can tell Docker that the container listens on the specified network ports at runtime by using EXPOSE:
EXPOSE <CONTAINERPORT>
Note that EXPOSE does not expose the port itself -- only -p will do that. To expose the container's port on your localhost's port:
iptables -t nat -A DOCKER -p tcp --dport <LOCALHOSTPORT> -j DNAT --to-destination <CONTAINERIP>:<PORT>
If you're running Docker in Virtualbox, you then need to forward the port there as well, using forwarded_port. Define a range of ports in your Vagrantfile like this so you can dynamically map them:
Vagrant.configure(VAGRANTFILE_API_VERSION) do |config|
...
(49000..49900).each do |port|
config.vm.network :forwarded_port, :host => port, :guest => port
end
...
end
If you forget what you mapped the port to on the host container, use docker port to show it:
docker port CONTAINER $CONTAINERPORT
Best Practices
This is where general Docker best practices and war stories go:
- The Rabbit Hole of Using Docker in Automated Tests
- Bridget Kromhout has a useful blog post on running Docker in production at Dramafever.
- There's also a best practices blog post from Lyst.
- Building a Development Environment With Docker
- Discourse in a Docker Container
Docker-Compose
Compose is a tool for defining and running multi-container Docker applications. With Compose, you use a YAML file to configure your application’s services. Then, with a single command, you create and start all the services from your configuration. To learn more about all the features of Compose, see the list of features.
By using the following command you can start up your application:
docker-compose -f <docker-compose-file> up
You can also run docker-compose in detached mode using -d flag, then you can stop it whenever needed by the following command:
docker-compose stop
You can bring everything down, removing the containers entirely, with the down command. Pass --volumes to also remove the data volume.
Security
This is where security tips about Docker go. The Docker security page goes into more detail.
First things first: Docker runs as root. If you are in the docker group, you effectively have root access. If you expose the docker unix socket to a container, you are giving the container root access to the host.
Docker should not be your only defense. You should secure and harden it.
For an understanding of what containers leave exposed, you should read Understanding and Hardening Linux Containers by Aaron Grattafiori. This is a complete and comprehensive guide to the issues involved with containers, with a plethora of links and footnotes leading on to yet more useful content. The security tips following are useful if you've already hardened containers in the past, but are not a substitute for understanding.
Security Tips
For greatest security, you want to run Docker inside a virtual machine. This is straight from the Docker Security Team Lead -- slides / notes. Then, run with AppArmor / seccomp / SELinux / grsec etc to limit the container permissions. See the Docker 1.10 security features for more details.
Docker image ids are sensitive information and should not be exposed to the outside world. Treat them like passwords.
See the Docker Security Cheat Sheet by Thomas Sjögren: some good stuff about container hardening in there.
Check out the docker bench security script, download the white papers.
Snyk's 10 Docker Image Security Best Practices cheat sheet
You should start off by using a kernel with unstable patches for grsecurity / pax compiled in, such as Alpine Linux. If you are using grsecurity in production, you should spring for commercial support for the stable patches, same as you would do for RedHat. It's $200 a month, which is nothing to your devops budget.
Since docker 1.11 you can easily limit the number of active processes running inside a container to prevent fork bombs. This requires a linux kernel >= 4.3 with CGROUP_PIDS=y to be in the kernel configuration.
docker run --pids-limit=64
Also available since docker 1.11 is the ability to prevent processes from gaining new privileges. This feature have been in the linux kernel since version 3.5. You can read more about it in this blog post.
docker run --security-opt=no-new-privileges
From the Docker Security Cheat Sheet (it's in PDF which makes it hard to use, so copying below) by Container Solutions:
Turn off interprocess communication with:
docker -d --icc=false --iptables
Set the container to be read-only:
docker run --read-only
Verify images with a hashsum:
docker pull debian@sha256:a25306f3850e1bd44541976aa7b5fd0a29be
Set volumes to be read only:
docker run -v $(pwd)/secrets:/secrets:ro debian
Define and run a user in your Dockerfile so you don't run as root inside the container:
RUN groupadd -r user && useradd -r -g user user
USER user
User Namespaces
There's also work on user namespaces -- it is in 1.10 but is not enabled by default.
To enable user namespaces ("remap the userns") in Ubuntu 15.10, follow the blog example.
Security Videos
- Using Docker Safely
- Securing your applications using Docker
- Container security: Do containers actually contain?
- Linux Containers: Future or Fantasy?
Security Roadmap
The Docker roadmap talks about seccomp support. There is an AppArmor policy generator called bane, and they're working on security profiles.
Tips
Sources:
Prune
The new Data Management Commands have landed as of Docker 1.13:
docker system prunedocker volume prunedocker network prunedocker container prunedocker image prune
df
docker system df presents a summary of the space currently used by different docker objects.
Heredoc Docker Container
docker build -t htop - << EOF
FROM alpine
RUN apk --no-cache add htop
EOF
Last Ids
alias dl='docker ps -l -q'
docker run ubuntu echo hello world
docker commit $(dl) helloworld
Commit with command (needs Dockerfile)
docker commit -run='{"Cmd":["postgres", "-too -many -opts"]}' $(dl) postgres
Get IP address
docker inspect $(dl) | grep -wm1 IPAddress | cut -d '"' -f 4
or with jq installed:
docker inspect $(dl) | jq -r '.[0].NetworkSettings.IPAddress'
or using a go template:
docker inspect -f '{{ .NetworkSettings.IPAddress }}' <container_name>
or when building an image from Dockerfile, when you want to pass in a build argument:
DOCKER_HOST_IP=`ifconfig | grep -E "([0-9]{1,3}\.){3}[0-9]{1,3}" | grep -v 127.0.0.1 | awk '{ print $2 }' | cut -f2 -d: | head -n1`
echo DOCKER_HOST_IP = $DOCKER_HOST_IP
docker build \
--build-arg ARTIFACTORY_ADDRESS=$DOCKER_HOST_IP
-t sometag \
some-directory/
Get port mapping
docker inspect -f '{{range $p, $conf := .NetworkSettings.Ports}} {{$p}} -> {{(index $conf 0).HostPort}} {{end}}' <containername>
Find containers by regular expression
for i in $(docker ps -a | grep "REGEXP_PATTERN" | cut -f1 -d" "); do echo $i; done
Get Environment Settings
docker run --rm ubuntu env
Kill running containers
docker kill $(docker ps -q)
Delete all containers (force!! running or stopped containers)
docker rm -f $(docker ps -qa)
Delete old containers
docker ps -a | grep 'weeks ago' | awk '{print $1}' | xargs docker rm
Delete stopped containers
docker rm -v $(docker ps -a -q -f status=exited)
Delete containers after stopping
docker stop $(docker ps -aq) && docker rm -v $(docker ps -aq)
Delete dangling images
docker rmi $(docker images -q -f dangling=true)
Delete all images
docker rmi $(docker images -q)
Delete dangling volumes
As of Docker 1.9:
docker volume rm $(docker volume ls -q -f dangling=true)
In 1.9.0, the filter dangling=false does not work - it is ignored and will list all volumes.
Show image dependencies
docker images -viz | dot -Tpng -o docker.png
Slimming down Docker containers
- Cleaning APT in a RUN layer
This should be done in the same layer as other apt commands. Otherwise, the previous layers still persist the original information and your images will still be fat.
RUN {apt commands} \
&& apt-get clean \
&& rm -rf /var/lib/apt/lists/* /tmp/* /var/tmp/*
- Flatten an image
ID=$(docker run -d image-name /bin/bash)
docker export $ID | docker import – flat-image-name
- For backup
ID=$(docker run -d image-name /bin/bash)
(docker export $ID | gzip -c > image.tgz)
gzip -dc image.tgz | docker import - flat-image-name
Monitor system resource utilization for running containers
To check the CPU, memory, and network I/O usage of a single container, you can use:
docker stats <container>
For all containers listed by id:
docker stats $(docker ps -q)
For all containers listed by name:
docker stats $(docker ps --format '{{.Names}}')
For all containers listed by image:
docker ps -a -f ancestor=ubuntu
Remove all untagged images:
docker rmi $(docker images | grep “^” | awk '{split($0,a," "); print a[3]}')
Remove container by a regular expression:
docker ps -a | grep wildfly | awk '{print $1}' | xargs docker rm -f
Remove all exited containers:
docker rm -f $(docker ps -a | grep Exit | awk '{ print $1 }')
Volumes can be files
Be aware that you can mount files as volumes. For example you can inject a configuration file like this:
# copy file from container
docker run --rm httpd cat /usr/local/apache2/conf/httpd.conf > httpd.conf
# edit file
vim httpd.conf
# start container with modified configuration
docker run --rm -it -v "$PWD/httpd.conf:/usr/local/apache2/conf/httpd.conf:ro" -p "80:80" httpd
Contributing
Here's how to contribute to this cheat sheet.
Open README.md
Click README.md <-- this link



