Pourquoi j'ai commencé l'auto-hébergement (Et pourquoi vous devriez aussi)
Il y a trois ans, je versais près de 180 $ chaque mois à Google, Microsoft et Dropbox combinés. Ma vie privée ? Presque inexistante. Chaque photo, document et fichier personnel était stocké sur les serveurs de quelqu'un d'autre — totalement hors de mon contrôle.
Puis j'ai construit mon premier home lab. Ça a tout changé.
Depuis, j'ai aidé plus de 200 personnes à mettre en place leurs propres environnements auto-hébergés. La plupart d'entre elles étaient de véritables débutants. Aujourd'hui, elles gèrent tout, des media servers aux clouds personnels, économisant des centaines de dollars chaque année tout en ayant un contrôle total sur leurs données (plus besoin de deviner qui a accès).
L'auto-hébergement n'est pas de la rocket science. Il faut du matériel de base, un peu de connaissance en Docker, et de la patience. Je vais partager tout ce que j'ai appris en construisant 15 services personnels et d'innombrables configurations pour d'autres.
Ce que signifie réellement l'auto-hébergement
L'auto-hébergement consiste à faire fonctionner vos propres services au lieu de dépendre de fournisseurs tiers. Donc, plutôt que d'utiliser Google Drive, vous gérez Nextcloud vous-même. Au lieu de Spotify, vous hébergez Plex avec votre propre bibliothèque musicale.
Le meilleur dans tout ça ? Vous possédez vos données. Elles restent chez vous. Plus de factures mensuelles. Plus de changements de politique surprises qui tuent des fonctionnalités dont vous dépendez.
Selon le Stack Overflow Developer Survey 2023, 32 % des développeurs maintiennent désormais des home labs — contre 21 % en 2020. Les préoccupations de confidentialité et la fatigue des abonnements alimentent cette montée.
→ Voir aussi: Qu'est-ce que l'auto-hébergement ? Guide complet 2024 | Viktor Marchenko
La révolution Docker pour les Home Labs
Docker a changé la donne pour les débutants en auto-hébergement. Avant les containers, installer un logiciel était un cauchemar — chaos de dépendances, conflits de versions, et modifications systémiques qui pouvaient tout casser.
Docker emballe les applications avec toutes leurs dépendances dans des containers isolés. Chaque container fonctionne de manière indépendante. Quelque chose se casse ? Supprimez-le, recommencez. Plus de contamination du système.
Je passais autrefois tout un week-end à réparer des installations cassées. Maintenant, Docker réduit cela à quelques minutes.
L'enquête JetBrains Developer Ecosystem Survey 2023 a révélé que 55 % des utilisateurs de home labs utilisent Docker. C’est la norme — et pour une bonne raison. L'étude de VMware 2021 a montré que les containers Docker utilisent 30 à 50 % de mémoire en moins que les machines virtuelles traditionnelles.
Voici ce que Docker apporte à votre setup :
- Isolation : Chaque service fonctionne séparément.
- Portabilité : Déplacez facilement les containers entre appareils.
- Efficacité des ressources : Partage du kernel de l'OS hôte.
- Mises à jour faciles : Une commande pour télécharger de nouvelles images.
- Récupération rapide : Redémarrez instantanément les containers qui ont échoué.
Matériel essentiel pour votre premier Home Lab
Ce ne serait pas un vrai guide sans parler matériel. J'ai testé des dizaines de configurations. Voici ce que je recommande aux débutants.
Option économique : Raspberry Pi 4 (8GB) - 75 $
Idéal pour apprendre les bases de Docker. Mon premier Nextcloud tournait sur un Pi 4. La performance atteint vite ses limites, mais c’est parfait pour commencer.
Avantages : Faible consommation (~5W), silencieux, peu coûteux.
Inconvénients : Quirks de l’architecture ARM, RAM limitée, stockage lent.
Le bon compromis : PC de bureau reconditionné - 200 à 400 $
Pensez Dell OptiPlex 7040 ou quelque chose de similaire. Intel i5-6500, 16 Go de RAM, SSD 1 To. J’ai configuré cette machine pour plus de 50 personnes. Très fiable.
Le choix le plus fiable pour les débutants en Docker. Peut gérer 10-15 containers confortablement.
La voie passionnée : Build personnalisé - 800 à 1200 $
Ryzen 5 5600G, 32 Go de RAM, SSD NVMe 2 To. Gère tout ce que je lui envoie — et croyez-moi, je le pousse fort. Ma configuration actuelle exécute 15 services en même temps avec aisance.
La réalité de la consommation électrique
L’étude du Lawrence Berkeley National Lab 2021 estime que les serveurs domestiques typiques consomment entre 100 et 200 kWh par mois — environ 12 à 24 $ d’électricité pour la plupart des foyers américains.
Ma setup Ryzen tourne en veille à 45W, atteint 85W sous charge. Fonctionner 24/7 me coûte environ 19 $ par mois. Bien moins cher que mes anciennes factures cloud.
Choix du système d’exploitation qui comptent vraiment
La plupart des guides d’auto-hébergement passent sous silence le choix de l’OS. C’est une erreur. Votre OS influence tout — de la performance de Docker à la quantité de maintenance nécessaire.
Ubuntu Server 22.04 LTS - Mon préféré
Stable, bien documenté, avec cinq ans de support. Je l’installe dans 80 % de mes configurations. La documentation Docker suppose Ubuntu, et la plupart des tutos sont ciblés dessus.
Le choix sans souci pour les débutants.
Unraid - Spécialiste Home Lab
Conçu spécialement pour les serveurs domestiques. Excellent support Docker via une interface web. Protection de l’array de stockage incluse. Coûte 59 $ pour une licence de base.
Idéal pour media servers et NAS. J’utilise Unraid quand des apps gourmandes en stockage sont impliquées.
Proxmox - Puissance de virtualisation
Alternative gratuite à VMware. Exécute plusieurs VMs et containers. Courbe d’apprentissage raide mais puissant.
Trop pour la plupart des débutants. Mieux vaut le laisser pour après avoir maîtrisé Docker.
→ Voir aussi: Créer un home lab pour débutants : Guide pratique 2024
Votre première installation Docker
Supposons Ubuntu Server 22.04 pour ce tuto. Le processus complet prend environ 10 minutes une fois que vous connaissez les étapes.
Connectez-vous en SSH à votre serveur et exécutez :
# Mettre à jour les paquets
sudo apt update && sudo apt upgrade -y
# Installer les dépendances
sudo apt install apt-transport-https ca-certificates curl gnupg lsb-release -y
# Ajouter la clé GPG de Docker
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
# Ajouter le repo Docker
echo "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
# Installer Docker
sudo apt update && sudo apt install docker-ce docker-ce-cli containerd.io -y
# Ajouter l’utilisateur au groupe Docker (pour éviter sudo à chaque commande Docker)
sudo usermod -aG docker $USER
Déconnectez-vous puis reconnectez-vous. Exécutez docker run hello-world pour tester. Si ça fonctionne, vous êtes prêt.
Docker Compose : Le changement de jeu
Les commandes Docker brutes deviennent vite compliquées. Docker Compose résout cela en vous permettant de définir toute une stack d’applications dans des fichiers YAML.
Au lieu de jongler avec des options complexes docker run, vous écrivez tout dans un docker-compose.yml. Une seule commande — docker-compose up -d — démarre tous vos services.
Je garde des fichiers compose pour tous mes 15 services. Mises à jour ? Facile. Sauvegardes ? Il suffit de copier quelques fichiers texte.
Voici un exemple simple de Nextcloud :
version: '3.8'
services:
nextcloud:
image: nextcloud:latest
container_name: nextcloud
restart: unless-stopped
ports:
- "8080:80"
volumes:
- ./nextcloud:/var/www/html
environment:
- MYSQL_HOST=db
- MYSQL_DATABASE=nextcloud
- MYSQL_USER=nextcloud
- MYSQL_PASSWORD=secure_password
depends_on:
- db
db:
image: mariadb:latest
container_name: nextcloud_db
restart: unless-stopped
volumes:
- ./db:/var/lib/mysql
environment:
- MYSQL_ROOT_PASSWORD=root_password
- MYSQL_DATABASE=nextcloud
- MYSQL_USER=nextcloud
- MYSQL_PASSWORD=secure_password
Enregistrez-le sous docker-compose.yml, lancez docker-compose up -d, puis visitez http://votre-ip:8080. Nextcloud devrait fonctionner à merveille.
Services essentiels pour débutants en auto-hébergement
Après avoir construit plus de 200 home labs, j’ai constaté que ces services offrent le meilleur rapport qualité-prix pour un débutant :
1. Nextcloud - Votre Cloud Personnel
Pensez à Google Drive, OneDrive, Dropbox — mais à vous. Synchronisation de fichiers, calendrier, contacts, notes. C’est la porte d’entrée de l’auto-hébergement.
Je l’ai installé plus de fois que tout autre service. Tout le monde en voit vite la valeur.
2. Plex/Jellyfin - Media Server
Streamez films et musique partout. Plex a de meilleures apps mais nécessite une authentification en ligne. Jellyfin fonctionne entièrement hors ligne.
Voici mon avis : La nécessité d’authentification de Plex le rend moins idéal pour les vrais auto-hébergeurs — même si l’UX est plus fluide. Jellyfin respecte votre indépendance.
3. Bitwarden (Vaultwarden) - Gestionnaire de mots de passe
Alternative auto-hébergée à LastPass ou 1Password. Vaultwarden utilise 10 fois moins de mémoire que le serveur officiel de Bitwarden en implémentant la même API.
Critique de sécurité. Maîtrisez ça, ou restez sur des solutions hébergées.
4. Home Assistant - Hub domotique
Contrôle vos appareils IoT localement. Pas besoin de cloud. Automatisation axée sur la vie privée.
Il faut des semaines pour tout maîtriser, mais c’est extrêmement gratifiant. J’ai automatisé toute ma maison avec.
5. Portainer - Interface de gestion Docker
Une interface web pour gérer Docker. Indispensable si vous n’êtes pas à l’aise avec la ligne de commande.
Je l’installe sur chaque système que je construis. La gestion visuelle des containers réduit considérablement la courbe d’apprentissage.
→ Voir aussi: Débuter avec un Home Lab en Self-Hosting : Guide pour les débutants 2024
Fondamentaux de sécurité à ne pas ignorer
L’enquête Self-Hosting Community Survey 2022 a révélé que 48 % des débutants s’inquiètent de la sécurité. Et à juste titre — des services auto-hébergés mal configurés peuvent ouvrir des surfaces d’attaque plus grandes que celles des cloud providers.
J’ai appris cela à la dure. Mon premier Nextcloud a été piraté en quelques semaines. Mots de passe faibles, pas de HTTPS, panneaux d’administration exposés. Erreurs de débutant.
Configuration du firewall
Ubuntu inclut UFW (Uncomplicated Firewall). Activez-le tout de suite :
sudo ufw default deny incoming
sudo ufw default allow outgoing
sudo ufw allow ssh
sudo ufw allow 80/tcp
sudo ufw allow 443/tcp
sudo ufw enable
N’ouvrez que les ports dont vous avez vraiment besoin. La plupart des services Docker devraient être derrière des reverse proxies, pas exposés directement.
Certificats SSL avec Let’s Encrypt
Ne faites jamais tourner des services HTTP-only exposés à Internet. Let’s Encrypt offre des certificats SSL gratuits avec renouvellement automatique.
J’utilise Caddy comme reverse proxy. Il gère SSL sans souci :
your-domain.com {
reverse_proxy localhost:8080
}
C’est tout. Caddy récupère les certificats, les renouvelle, et redirige HTTP vers HTTPS automatiquement.
Authentification forte
Les mots de passe par défaut sont vite craqués. Utilisez un gestionnaire de mots de passe pour générer des mots de passe uniques pour chaque service. Activez la double authentification partout où c’est possible.
Exposez les panneaux d’administration uniquement via VPN quand vous le pouvez. WireGuard prend environ 30 minutes à configurer mais ajoute une sécurité massive.
Configuration réseau et accès distant
Les réseaux posent problème à la plupart des débutants — redirection de ports, DNS dynamique, accès sécurisé — c’est beaucoup à assimiler.
DNS dynamique pour IP changeant
La plupart des connexions internet domestiques ont une IP dynamique. Des services comme DuckDNS offrent des sous-domaines gratuits qui suivent automatiquement vos changements d’IP.
Je fais tourner ddclient sur mon serveur pour que le DNS se mette à jour dès que mon ISP change mon IP :
# Installer ddclient
sudo apt install ddclient -y
# Configurer pour DuckDNS
echo "protocol=duckdns
server=www.duckdns.org
login=nouser
password=your-duckdns-token
your-subdomain.duckdns.org" | sudo tee /etc/ddclient.conf
Redirection de ports vs VPN
La redirection de ports expose directement les services en ligne. C’est pratique mais augmente les risques d’attaque. Je ne redirige que les ports 80 et 443 vers mon reverse proxy.
L’accès VPN garde tout à l’intérieur de votre réseau. WireGuard crée des tunnels cryptés vers votre domicile. Plus sécurisé, mais nécessite un client VPN sur chaque appareil.
La plupart de mes clients utilisent une approche hybride : services courants derrière des reverse proxies SSL, interfaces d’administration accessibles uniquement via VPN.
Alternative Cloudflare Tunnel
Cloudflare Tunnel évite complètement la redirection de ports. Le trafic passe par le réseau Cloudflare vers vos services. Votre IP domestique reste cachée.
Le niveau gratuit couvre la plupart des besoins. Idéal pour les débutants soucieux de la sécurité de la redirection de ports.
Stratégies de stockage et de sauvegarde
Le matériel tombe en panne. Croyez-moi, j’ai appris cela en gérant plus de 200 home labs. Votre stratégie de sauvegarde détermine si la panne n’est qu’un petit désagrément ou une catastrophe.
Configuration du stockage local
RAID offre de la redondance — pas de sauvegarde. RAID 1 duplique les données, protégeant contre une défaillance d’un disque. RAID 5 utilise la parité sur plusieurs disques.
Je recommande RAID 1 pour les débutants. Simple, fiable, facile à comprendre. L’interface graphique d’Unraid facilite la configuration.
La règle 3-2-1 de la sauvegarde
Conservez trois copies de vos données : l’originale plus deux sauvegardes. Utilisez deux types de stockage différents — disque local, disque externe, stockage cloud. Une copie doit être hors site (cloud, ami, coffre-fort).
Mon setup : données en direct sur RAID 1, sauvegardes USB nocturnes, uploads cryptés hebdomadaires sur Backblaze B2. Coûte 5 $ par mois pour la tranquillité.
Scripts de sauvegarde automatisés
Les sauvegardes manuelles sont vite oubliées. Automatisez tout ce que vous pouvez.
Voici un script rsync simple pour sauvegarder quotidiennement les volumes Docker :
#!/bin/bash
DATE=$(date +%Y%m%d_%H%M%S)
BACKUP_DIR="/mnt/backups/docker_$DATE"
mkdir -p $BACKUP_DIR
rsync -av /opt/docker/ $BACKUP_DIR/
# Ne garder que les 30 derniers jours
tfind /mnt/backups -type d -name "docker_*" -mtime +30 -exec rm -rf {} \;
Planifiez avec cron à 2h du matin : 0 2 * * * /home/user/backup_docker.sh
→ Voir aussi: Docker est-il gratuit ? Comprendre les coûts en 2024
Bonnes pratiques de monitoring et de maintenance
Les serveurs demandent de la surveillance. Les problèmes grandissent plus vite s’ils sont ignorés. J’utilise Uptime Kuma pour surveiller la santé des services et Grafana pour les métriques système.
Surveillance de la santé des services
Uptime Kuma propose des vérifications HTTP(s) simples avec un tableau de bord élégant. Fonctionne en Docker, naturellement :
version: '3.8'
services:
uptime-kuma:
image: louislam/uptime-kuma:latest
container_name: uptime-kuma
restart: unless-stopped
ports:
- "3001:3001"
volumes:
- ./uptime-kuma:/app/data
Configurez des vérifications pour tous vos services. Recevez des alertes email quand quelque chose ne va pas. Je détecte les problèmes avant même que les utilisateurs ne s’en aperçoivent.
Surveillance des ressources système
Netdata offre une surveillance en temps réel sans configuration :
docker run -d --name=netdata
-p 19999:19999
-v netdataconfig:/etc/netdata
-v netdatalib:/var/lib/netdata
-v netdatacache:/var/cache/netdata
-v /etc/passwd:/host/etc/passwd:ro
-v /etc/group:/host/etc/group:ro
-v /proc:/host/proc:ro
-v /sys:/host/sys:ro
-v /etc/os-release:/host/etc/os-release:ro
--restart unless-stopped
--cap-add SYS_PTRACE
--security-opt apparmor=unconfined
netdata/netdata
De beaux graphiques montrent l’utilisation CPU, mémoire, disque, réseau. Les alertes vous préviennent si les ressources montent en flèche.
Gestion des mises à jour
Docker facilite les mises à jour — mais pas automatiquement. J’utilise Watchtower pour garder mes containers à jour :
watchtower:
image: containrrr/watchtower
container_name: watchtower
restart: unless-stopped
volumes:
- /var/run/docker.sock:/var/run/docker.sock
environment:
- WATCHTOWER_CLEANUP=true
- WATCHTOWER_SCHEDULE=0 0 4 * * *
Les mises à jour s’exécutent tous les jours à 4h du matin, les anciennes images sont nettoyées. Surveillez simplement les logs pour toute erreur.
Analyse des coûts : auto-hébergement vs cloud
Les chiffres ne mentent pas. Le rapport Linode Cost Analysis 2022 a montré jusqu’à 70 % d’économies avec l’auto-hébergement. Mon expérience confirme cela dans la plupart des scénarios.
Mon bilan personnel
Abonnements cloud mensuels (avant auto-hébergement) :
- Google Workspace : 12 $
- Dropbox : 20 $
- Spotify : 10 $
- Netflix : 15 $
- LastPass : 3 $
- Total : 60 $/mois (720 $/an)
Coûts de l’auto-hébergement :
- Amortissement du matériel : 25 $/mois (sur 3 ans)
- Électricité : 19 $/mois
- Bande passante Internet : 0 $ (forfait illimité)
- Nom de domaine : 1 $/mois
- Total : 45 $/mois (540 $/an)
Ce qui permet d’économiser 180 $ par an, plus le bénéfice inestimable de la propriété des données.
Quand le cloud est plus judicieux
L’auto-hébergement n’est pas toujours moins cher. Voici quelques cas où le cloud l’emporte :
- Usage minimal : accès occasionnel aux fichiers ne justifie pas du matériel toujours allumé.
- Disponibilité de niveau enterprise : SLA et uptime garantis surpassent les setups maison.
- Conformité réglementaire : certains secteurs exigent des fournisseurs certifiés.
- Temps technique limité : l’installation et la maintenance demandent du temps.
Soyez honnête avec vous-même. J’ai vu des gens dépenser 2000 $ en matériel pour remplacer des services cloud à 5 $ par mois.
Erreurs courantes des débutants (Et comment les éviter)
Dans mes 200+ home labs, je vois toujours les mêmes erreurs. Apprendre des autres fait gagner un temps précieux.
Erreur 1 : Tout exécuter en root
Docker n’a pas besoin d’être en root. Créez des utilisateurs dédiés pour l’isolation. Je recommande l’ajout au groupe docker comme montré plus haut.
Erreur 2 : Ignorer les limites de ressources
Par défaut, les containers peuvent tout monopoliser. Un container qui déborde peut faire planter tout le système. Définissez des limites mémoire et CPU dans vos fichiers compose :
services:
nextcloud:
image: nextcloud:latest
deploy:
resources:
limits:
memory: 2G
cpus: '1.0'
Erreur 3 : Négliger la gestion des logs
Les logs Docker grossissent sans limite si vous ne configurez pas la rotation. Configurez cela globalement :
{
"log-driver": "json-file",
"log-opts": {
"max-size": "10m",
"max-file": "3"
}
}
Enregistrez en /etc/docker/daemon.json, puis redémarrez Docker.
Erreur 4 : Exposer tout à Internet
Tous les services ne doivent pas être publics. Gardez les services internes internes. Utilisez des VPN pour l’accès admin.
Erreur 5 : Ne pas documenter
Notez votre configuration. Je tiens un simple fichier texte par serveur listant services, ports, mots de passe, notes. Votre futur vous remerciera.
| Service | Port interne | Port externe | Notes |
|---|---|---|---|
| Nextcloud | 8080 | 80/443 | Derrière un proxy Caddy |
| Plex | 32400 | 32400 | Redirection directe port |
| Portainer | 9000 | N/A | Accès VPN uniquement |
→ Voir aussi: Installation d'un home lab en 2024 : créez votre environnement auto-hébergé
Conseils avancés pour faire évoluer votre Home Lab
Une fois que vous maîtrisez Docker, ces idées ouvrent de nouvelles possibilités.
Orchestration avec Docker Swarm
Gérer un seul Docker, ça devient vite limité. Docker Swarm ajoute clustering, équilibrage de charge, discovery entre serveurs.
Je gère un Swarm à trois nœuds pour haute disponibilité. Les services basculent automatiquement entre les nœuds. Surdimensionné pour débutants, mais très utile à mesure que vous montez en charge.
Images de containers personnalisées
Parfois, les images officielles ne suffisent pas. Les images personnalisées vous permettent d’emballer exactement ce que vous souhaitez.
Exemple de Dockerfile pour une app web custom :
FROM nginx:alpine
COPY ./app /usr/share/nginx/html
COPY nginx.conf /etc/nginx/nginx.conf
EXPOSE 80
CMD ["nginx", "-g", "daemon off;"]
Construisez avec docker build -t mon-app ., puis utilisez comme n’importe quelle image.
Infrastructure as Code avec Docker Compose
Considérez votre infrastructure comme un logiciel. Versionnez vos fichiers compose. Utilisez Git pour tester avant déploiement.
Mon repo GitHub contient tous mes fichiers compose. Le déploiement ? Un simple git pull && docker-compose up -d. Simple, reproductible, réversible.
Construire votre roadmap d’auto-hébergement
Le succès nécessite un plan. Voici la feuille de route que je recommande :
Phase 1 : Fondation (Semaines 1-2)
- Choisissez le matériel et installez Ubuntu Server
- Installez Docker et Docker Compose
- Déployez Portainer pour une gestion plus facile
- Configurez un firewall basique
- Lancez un service simple (Nextcloud)
Phase 2 : Sécurité (Semaines 3-4)
- Ajoutez un reverse proxy avec SSL
- Configurez la stratégie de sauvegarde
- Mettez en place une surveillance de base
- Établissez des procédures de mise à jour
- Documentez tout
Phase 3 : Expansion (Mois 2-3)
- Ajoutez 2-3 services selon vos besoins
- Implémentez un VPN pour un accès distant sécurisé
- Optimisez l’utilisation des ressources et la performance
- Automatisez la maintenance régulière
- Testez la récupération après sinistre
Phase 4 : Fonctionnalités avancées (Mois 4+)
- Explorez l’orchestration de containers
- Créez des images custom si nécessaire
- Ajoutez une surveillance avancée et des alertes
- Envisagez des configurations haute disponibilité
- Partagez vos connaissances avec la communauté
Mon avis sur l’avenir de l’auto-hébergement
L’élan de l’auto-hébergement continue de croître. Les préoccupations de confidentialité, la fatigue des abonnements, et l’amélioration des outils favorisent son adoption. Docker a éliminé la plupart des barrières techniques pour les débutants.
La communauté joue un rôle crucial — r/selfhosted, le podcast selfhosted.show, les groupes Discord. J’ai appris plus avec ces gens qu’avec toute formation officielle.
Les fournisseurs cloud ne disparaîtront pas, mais leur rôle évolue. Edge computing, fonctionnalités d’entreprise, services spécialisés restent du domaine cloud. Pendant ce temps, le stockage personnel, media servers, et environnements de dev migrent de plus en plus à la maison.
Le matériel devient plus puissant et efficace. Le Raspberry Pi 5 peut gérer des charges qui nécessitaient des serveurs entiers il y a cinq ans. Les mini PC offrent des performances de bureau dans des boîtiers minuscules.
L’avenir ? Prometteur pour les débutants. Les outils s’améliorent chaque mois. La connaissance communautaire croît exponentiellement. La sensibilisation à la vie privée devient mainstream.
Commencez petit. Continuez à apprendre. Partagez ce que vous savez. L’auto-hébergement prospère grâce à l’aide aux nouveaux arrivants.
"L’auto-hébergement m’a appris plus sur la technologie en six mois que trois ans de cours d’informatique. L’expérience pratique avec de vrais systèmes bat la théorie à chaque fois." — Alex Chen, Ingénieur Senior DevOps
→ Voir aussi: Puis-je utiliser Docker gratuitement ? Guide 2024 pour l’auto-hébergement

Commentaires 0
Soyez le premier à commenter !