Actualiser ollama/readme.md
ajout du readme.md pour nvidia
This commit is contained in:
216
ollama/readme.md
216
ollama/readme.md
@@ -0,0 +1,216 @@
|
|||||||
|
# 🚀 Installation de NVIDIA Container Toolkit
|
||||||
|
|
||||||
|
Ce guide décrit comment installer et configurer **NVIDIA Container Toolkit** pour permettre l’utilisation du GPU NVIDIA dans des conteneurs Docker.
|
||||||
|
|
||||||
|
📖 Documentation officielle :
|
||||||
|
👉 [NVIDIA Container Toolkit Install Guide](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/1.17.7/install-guide.html)
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 1️⃣ Présentation
|
||||||
|
|
||||||
|
Le **NVIDIA Container Toolkit** fournit les outils nécessaires pour exécuter des conteneurs Docker qui exploitent les GPU NVIDIA.
|
||||||
|
Cela permet d’accélérer les applications (IA, calcul, multimédia) dans des environnements conteneurisés.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 2️⃣ Installation
|
||||||
|
|
||||||
|
### a. Ajouter la clé GPG et le dépôt NVIDIA
|
||||||
|
|
||||||
|
```bash
|
||||||
|
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
|
||||||
|
| sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
|
||||||
|
|
||||||
|
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
|
||||||
|
| sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
|
||||||
|
| sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
|
||||||
|
```
|
||||||
|
|
||||||
|
Ces commandes ajoutent le dépôt officiel **NVIDIA Container Toolkit** et sécurisent la source avec une clé GPG locale.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
### b. Activer la branche `experimental` (optionnel mais parfois nécessaire)
|
||||||
|
|
||||||
|
```bash
|
||||||
|
sudo sed -i -e '/experimental/ s/^#//g' /etc/apt/sources.list.d/nvidia-container-toolkit.list
|
||||||
|
```
|
||||||
|
|
||||||
|
> 💡 Cette étape décommente la ligne contenant `experimental` pour accéder aux versions les plus récentes des paquets si besoin.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
### c. Mettre à jour et installer le toolkit
|
||||||
|
|
||||||
|
```bash
|
||||||
|
sudo apt-get update
|
||||||
|
sudo apt-get install -y nvidia-container-toolkit
|
||||||
|
```
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 3️⃣ Configuration du runtime Docker
|
||||||
|
|
||||||
|
Configurer Docker pour utiliser le runtime NVIDIA :
|
||||||
|
|
||||||
|
```bash
|
||||||
|
sudo nvidia-ctk runtime configure --runtime=docker
|
||||||
|
sudo systemctl restart docker
|
||||||
|
```
|
||||||
|
|
||||||
|
Ces commandes :
|
||||||
|
- ajustent la configuration Docker pour ajouter le runtime `nvidia`,
|
||||||
|
- redémarrent le service Docker pour appliquer les changements.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 4️⃣ Vérification
|
||||||
|
|
||||||
|
Lancez un conteneur de test pour vérifier que votre GPU est détecté :
|
||||||
|
|
||||||
|
```bash
|
||||||
|
docker run --rm --gpus all nvidia/cuda:12.6.2-base-ubuntu22.04 nvidia-smi
|
||||||
|
```
|
||||||
|
|
||||||
|
Vous devriez voir apparaître les informations de votre carte graphique (nom, driver, mémoire).
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 5️⃣ Utilisation avec Docker Compose
|
||||||
|
|
||||||
|
Une fois Docker configuré, vous pouvez lancer vos conteneurs avec accès GPU :
|
||||||
|
|
||||||
|
```bash
|
||||||
|
docker compose up -d
|
||||||
|
```
|
||||||
|
|
||||||
|
> 💡 Assurez-vous que votre `docker-compose.yml` contient la section suivante pour les services qui doivent accéder au GPU :
|
||||||
|
|
||||||
|
```yaml
|
||||||
|
deploy:# 🚀 Installation de NVIDIA Container Toolkit
|
||||||
|
|
||||||
|
Ce guide décrit comment installer et configurer **NVIDIA Container Toolkit** pour permettre l’utilisation du GPU NVIDIA dans des conteneurs Docker.
|
||||||
|
|
||||||
|
📖 Documentation officielle :
|
||||||
|
👉 [NVIDIA Container Toolkit Install Guide](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/1.17.7/install-guide.html)
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 1️⃣ Présentation
|
||||||
|
|
||||||
|
Le **NVIDIA Container Toolkit** fournit les outils nécessaires pour exécuter des conteneurs Docker qui exploitent les GPU NVIDIA.
|
||||||
|
Cela permet d’accélérer les applications (IA, calcul, multimédia) dans des environnements conteneurisés.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 2️⃣ Installation
|
||||||
|
|
||||||
|
### a. Ajouter la clé GPG et le dépôt NVIDIA
|
||||||
|
|
||||||
|
```bash
|
||||||
|
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
|
||||||
|
| sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
|
||||||
|
|
||||||
|
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
|
||||||
|
| sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
|
||||||
|
| sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
|
||||||
|
```
|
||||||
|
|
||||||
|
Ces commandes ajoutent le dépôt officiel **NVIDIA Container Toolkit** et sécurisent la source avec une clé GPG locale.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
### b. Activer la branche `experimental` (optionnel mais parfois nécessaire)
|
||||||
|
|
||||||
|
```bash
|
||||||
|
sudo sed -i -e '/experimental/ s/^#//g' /etc/apt/sources.list.d/nvidia-container-toolkit.list
|
||||||
|
```
|
||||||
|
|
||||||
|
> 💡 Cette étape décommente la ligne contenant `experimental` pour accéder aux versions les plus récentes des paquets si besoin.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
### c. Mettre à jour et installer le toolkit
|
||||||
|
|
||||||
|
```bash
|
||||||
|
sudo apt-get update
|
||||||
|
sudo apt-get install -y nvidia-container-toolkit
|
||||||
|
```
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 3️⃣ Configuration du runtime Docker
|
||||||
|
|
||||||
|
Configurer Docker pour utiliser le runtime NVIDIA :
|
||||||
|
|
||||||
|
```bash
|
||||||
|
sudo nvidia-ctk runtime configure --runtime=docker
|
||||||
|
sudo systemctl restart docker
|
||||||
|
```
|
||||||
|
|
||||||
|
Ces commandes :
|
||||||
|
- ajustent la configuration Docker pour ajouter le runtime `nvidia`,
|
||||||
|
- redémarrent le service Docker pour appliquer les changements.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 4️⃣ Vérification
|
||||||
|
|
||||||
|
Lancez un conteneur de test pour vérifier que votre GPU est détecté :
|
||||||
|
|
||||||
|
```bash
|
||||||
|
docker run --rm --gpus all nvidia/cuda:12.6.2-base-ubuntu22.04 nvidia-smi
|
||||||
|
```
|
||||||
|
|
||||||
|
Vous devriez voir apparaître les informations de votre carte graphique (nom, driver, mémoire).
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 5️⃣ Utilisation avec Docker Compose
|
||||||
|
|
||||||
|
Une fois Docker configuré, vous pouvez lancer vos conteneurs avec accès GPU :
|
||||||
|
|
||||||
|
```bash
|
||||||
|
docker compose up -d
|
||||||
|
```
|
||||||
|
|
||||||
|
> 💡 Assurez-vous que votre `docker-compose.yml` contient la section suivante pour les services qui doivent accéder au GPU :
|
||||||
|
|
||||||
|
```yaml
|
||||||
|
deploy:
|
||||||
|
resources:
|
||||||
|
reservations:
|
||||||
|
devices:
|
||||||
|
- driver: nvidia
|
||||||
|
count: all
|
||||||
|
capabilities: [gpu]
|
||||||
|
```
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## ✅ Résumé
|
||||||
|
|
||||||
|
- Ajout du dépôt NVIDIA sécurisé
|
||||||
|
- Installation du `nvidia-container-toolkit`
|
||||||
|
- Configuration de Docker pour activer le runtime NVIDIA
|
||||||
|
- Vérification avec `nvidia-smi` dans un conteneur
|
||||||
|
|
||||||
|
Vous êtes maintenant prêt à exécuter des conteneurs GPU !
|
||||||
|
reservations:
|
||||||
|
devices:
|
||||||
|
- driver: nvidia
|
||||||
|
count: all
|
||||||
|
capabilities: [gpu]
|
||||||
|
```
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## ✅ Résumé
|
||||||
|
|
||||||
|
- Ajout du dépôt NVIDIA sécurisé
|
||||||
|
- Installation du `nvidia-container-toolkit`
|
||||||
|
- Configuration de Docker pour activer le runtime NVIDIA
|
||||||
|
- Vérification avec `nvidia-smi` dans un conteneur
|
||||||
|
|
||||||
|
Vous êtes maintenant prêt à exécuter des conteneurs GPU !
|
||||||
Reference in New Issue
Block a user