Tout le monde y va de son site éco-responsable. Si cela ne sauvera pas la planète, il reste utile qu’il y aie une prise de conscience. Cela ne peut qu’aller dans le bon sens.
Mais le but est de maximiser les efforts. Et si l’optimisation des sites du point de vue des visiteurs (côté “client”) est souvent mise en avant, l’optimisation et les choix côté serveurs sont bien trop souvent négligés.
Pourtant, l’hébergement est la clé de voûte d’un web réellement plus “vert”, représentant la majeure partie de l’économie de ressources que vous pouvez réaliser.
Décryptage. 👇
1 – L’optimisation “client”
C’est le volet le plus connu et évident. Il s’agit de réduire le poids des ressources envoyées aux visiteurs, améliorant ainsi le temps de chargement et réduisant l’empreinte carbone du site.
Cela s’axe sur deux points principaux :
- La conception : choisir des thèmes et plugins optimisés pour éviter l’envoi massif de polices et de codes JavaScript ou CSS inutiles.
- L’optimisation des images : utiliser des formats d’image adaptés et compressés selon les standards modernes comme “webp”, pour minimiser la consommation de bande passante.
Mais ce n’est que la partie émergée de l’iceberg.
Passons à l’aspect vraiment déterminant ! 👇
2. L’hébergement et l’optimisation des ressources serveur
Ce point est souvent sous-estimé, pourtant il représente à mon sens 90% de l’impact !
Choix de l’hébergeur 🏭
Les hébergeurs ont une énorme marge de manœuvre pour être “green”.
Électricité verte, localisation géographique, récupération de chaleur, type de refroidissement, choix de machines durables et basse consommation.
Par exemple, mon prestataire fournisseur de serveurs Hetzner utilise 100% d’énergie verte et des serveurs sans boîtier, évolutifs et durables. 🌱
Lutte contre les robots 🤖
Supprimer jusqu’à 99% du trafic indésirable généré par les robots pirates permet de baisser la consommation électrique des machines de plus de 50%. Pourtant, quasiment aucun hébergeur n’applique ces filtres, car cela demande un support additionnel pour traiter les faux positifs (et concrètement, débloquer les clients qui se trompent de mot de passe en boucle, ou utilisent des plugins faisant des requêtes louches).
Cela a l’autre effet bénéfique de booster drastiquement les performances pour les utilisateurs réels.
J’accomplis cela grâce à des techniques de détection et de blocage d’attaques comme ModSecurity et Fail2ban qui sont de grands standards pour les plus familiers de l’administration système en hébergement web.
Optimisation CPU 🧮
Les développeurs doivent écrire un code léger et rapide, et utiliser des caches performants comme Redis (disponible sur mes hébergements), pour maximiser l’efficacité des serveurs.
On parle ici d’une division par un facteur 2 à 10 de l’utilisation CPU des serveurs grâce à un bon cache.
A noter que les caches traditionnels écrivant des fichiers temporaires sur les serveurs sont moins optimum que Redis qui garde tout en RAM et évite ainsi de consommer de l’espace et des ressources I/O (lecture/écriture disque) inutilement.
Mutualisation efficace 🫂
Une gestion optimisée des serveurs et des sites, selon les points précédents, évite le gaspillage de machines physiques (chaque serveur peut contenir davantage de sites) tout en assurant des performances maximales pour tous.
Cette approche repose aussi sur une vraie proximité avec les clients pour une gestion sur mesure. Par exemple, si un site consomme plus de ressources que ce qui est attendu, cela peut être dû à une attaque à bloquer, ou à un souci d’optimisation du site à remonter au client, avec des conseils personnalisés.
Espérant que vous aurez appris quelque-chose. En tout cas désormais, vous ne pourrez plus dire que vous ne saviez pas. 🌟👍
Un projet ? Contactez-moi. 🤝
Ou commandez directement l’hébergement parfait sur https://portail.lrob.fr/ 🚀
Laisser un commentaire