Schwertlilien
As a recoder: notes and ideas.

2025-6-22-Docker/requirements.txt

Dockerfile /requirements.txt

image-20250626214258175

Dockerfilerequirements.txt在依赖管理方面有相似之处,但Dockerfile的功能更强大,适用范围更广。在实际项目中,两者可以结合使用,requirements.txt管理Python依赖,Dockerfile管理整个容器环境。

相似之处

Dockerfile / requirements.txt
1. 管理依赖 两者的主要目的都是管理项目运行所需的依赖。
2. 保证环境一致性 两者都有助于确保项目在不同环境中具有一致的运行效果。

1. 管理依赖

两者的主要目的都是管理项目运行所需的依赖。 - requirements.txt:主要用于管理Python项目的依赖包。在Python项目中,它列出了项目需要的所有Python库及其版本信息,使用pip install -r requirements.txt命令可以一次性安装所有依赖。例如,在代码库中的yoloe/third_party/ml-mobileclip/requirements.txt文件:

1
2
3
open-clip-torch>=2.20.0
timm==0.9.5
torch>=2.1.0
该文件明确了ml - mobileclip模块需要的Python库及其版本要求。 - Dockerfile:虽然它不仅仅局限于Python依赖,但也可以用于安装Python包。在Dockerfile中,可以使用RUN pip install命令来安装Python依赖。例如,提供的Dockerfile中有以下内容:
1
2
RUN python3 -m pip install --upgrade pip wheel
RUN pip install -e ".[export]" tensorrt-cu12 "albumentations>=1.4.6" comet pycocotools
这里通过RUN指令执行pip install命令,安装了项目所需的Python包。

2. 保证环境一致性

两者都有助于确保项目在不同环境中具有一致的运行效果。 - requirements.txt:开发人员可以将项目的依赖信息记录在requirements.txt文件中,其他开发人员或部署环境可以根据该文件安装相同版本的依赖,从而避免因依赖版本不一致导致的问题。 - Dockerfile:通过Dockerfile构建的Docker镜像包含了项目运行所需的所有环境信息,包括操作系统、软件包、Python依赖等。无论在哪个主机上运行该镜像,都能保证环境的一致性。

不同之处

Dockerfile requirements.txt
1. 作用范围 作用范围更广,它可以定义整个容器的环境,包括操作系统、系统级软件包、环境变量、文件复制等。 主要关注Python项目的依赖管理,只涉及Python包的安装和版本控制。
2. 使用场景 主要用于构建Docker镜像,适用于容器化部署场景。通过Dockerfile可以将项目及其依赖打包成一个独立的容器,方便在不同的环境中部署和运行。 通常用于Python项目的开发和部署,方便开发人员在本地环境或服务器上安装项目依赖。
3. 执行方式 通过docker build命令来构建镜像,涉及到Docker引擎的操作。 通过pip命令来安装依赖,是Python包管理的一部分。

Dockerfile除了Python依赖,还可以安装其他系统级的依赖,如在Dockerfile中安装Linux软件包:

1
2
3
4
RUN apt-get update && \
apt-get install -y --no-install-recommends \
gcc git zip unzip wget curl htop libgl1 libglib2.0-0 libpython3-dev gnupg g++ libusb-1.0-0 libsm6 \
&& rm -rf /var/lib/apt/lists/*

YOLOe-DockerFile

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
# Ultralytics YOLO 🚀, AGPL-3.0 license
# Builds ultralytics/ultralytics:latest image on DockerHub https://hub.docker.com/r/ultralytics/ultralytics
# Image is CUDA-optimized for YOLO11 single/multi-GPU training and inference

# Start FROM PyTorch image https://hub.docker.com/r/pytorch/pytorch or nvcr.io/nvidia/pytorch:23.03-py3
FROM pytorch/pytorch:2.5.0-cuda12.4-cudnn9-runtime

# Set environment variables
# Avoid DDP error "MKL_THREADING_LAYER=INTEL is incompatible with libgomp.so.1 library" https://github.com/pytorch/pytorch/issues/37377
ENV PYTHONUNBUFFERED=1 \
PYTHONDONTWRITEBYTECODE=1 \
PIP_NO_CACHE_DIR=1 \
PIP_BREAK_SYSTEM_PACKAGES=1 \
MKL_THREADING_LAYER=GNU \
OMP_NUM_THREADS=1

# Downloads to user config dir
ADD https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.ttf \
https://github.com/ultralytics/assets/releases/download/v0.0.0/Arial.Unicode.ttf \
/root/.config/Ultralytics/

# Install linux packages
# g++ required to build 'tflite_support' and 'lap' packages, libusb-1.0-0 required for 'tflite_support' package
# libsm6 required by libqxcb to create QT-based windows for visualization; set 'QT_DEBUG_PLUGINS=1' to test in docker
RUN apt-get update && \
apt-get install -y --no-install-recommends \
gcc git zip unzip wget curl htop libgl1 libglib2.0-0 libpython3-dev gnupg g++ libusb-1.0-0 libsm6 \
&& rm -rf /var/lib/apt/lists/*

# Security updates
# https://security.snyk.io/vuln/SNYK-UBUNTU1804-OPENSSL-3314796
RUN apt upgrade --no-install-recommends -y openssl tar

# Create working directory
WORKDIR /ultralytics

# Copy contents and configure git
COPY . .
RUN sed -i '/^\[http "https:\/\/github\.com\/"\]/,+1d' .git/config
ADD https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11n.pt .

# Install pip packages
RUN python3 -m pip install --upgrade pip wheel
# Note -cu12 must be used with tensorrt)
RUN pip install -e ".[export]" tensorrt-cu12 "albumentations>=1.4.6" comet pycocotools

# Run exports to AutoInstall packages
# Edge TPU export fails the first time so is run twice here
RUN yolo export model=tmp/yolo11n.pt format=edgetpu imgsz=32 || yolo export model=tmp/yolo11n.pt format=edgetpu imgsz=32
RUN yolo export model=tmp/yolo11n.pt format=ncnn imgsz=32
# Requires <= Python 3.10, bug with paddlepaddle==2.5.0 https://github.com/PaddlePaddle/X2Paddle/issues/991
RUN pip install "paddlepaddle>=2.6.0" x2paddle
# Fix error: `np.bool` was a deprecated alias for the builtin `bool` segmentation error in Tests
RUN pip install numpy==1.23.5

# Remove extra build files
RUN rm -rf tmp /root/.config/Ultralytics/persistent_cache.json

# Usage Examples -------------------------------------------------------------------------------------------------------

# Build and Push
# t=ultralytics/ultralytics:latest && sudo docker build -f docker/Dockerfile -t $t . && sudo docker push $t

# Pull and Run with access to all GPUs
# t=ultralytics/ultralytics:latest && sudo docker pull $t && sudo docker run -it --ipc=host --gpus all $t

# Pull and Run with access to GPUs 2 and 3 (inside container CUDA devices will appear as 0 and 1)
# t=ultralytics/ultralytics:latest && sudo docker pull $t && sudo docker run -it --ipc=host --gpus '"device=2,3"' $t

# Pull and Run with local directory access
# t=ultralytics/ultralytics:latest && sudo docker pull $t && sudo docker run -it --ipc=host --gpus all -v "$(pwd)"/shared/datasets:/datasets $t

# Kill all
# sudo docker kill $(sudo docker ps -q)

# Kill all image-based
# sudo docker kill $(sudo docker ps -qa --filter ancestor=ultralytics/ultralytics:latest)

# DockerHub tag update
# t=ultralytics/ultralytics:latest tnew=ultralytics/ultralytics:v6.2 && sudo docker pull $t && sudo docker tag $t $tnew && sudo docker push $tnew

# Clean up
# sudo docker system prune -a --volumes

# Update Ubuntu drivers
# https://www.maketecheasier.com/install-nvidia-drivers-ubuntu/

# DDP test
# python -m torch.distributed.run --nproc_per_node 2 --master_port 1 train.py --epochs 3

# GCP VM from Image
# docker.io/ultralytics/ultralytics:latest
搜索
匹配结果数:
未搜索到匹配的文章。