DAG Cache (CDN)

Accélérer et améliorer votre hébergement

Caratéristiques

Ensemble de serveurs au niveau mondial qui redistribuent localement le contenu de vos serveurs et gardent en cache, suivant vos règles, les fichiers qui ne nécessitent pas de mise à jour permanente.

Avantages

  • Plus de sécurité
  • Plus de rapidité
  • Optimisation du référencement dans chaque pays
  • Réduction des coûts globaux d’hébergement
DAG Cache fait le tri entre le trafic visiteur et le trafic généré par les bots : robots d’indexation des moteurs de recherche (Googlebot, Msnbot, etc.), mais aussi les bots de comparateurs de prix, outils d’analyse SEO et autres logiciels de scan.
En effet en analysant les logs de nos clients, nous avons pu constater qu’en moyenne 30% du trafic généré sur un site web est dû à des bots.
  • 30% des ressources serveurs (RAM, processeurs, accès disques dur) sont ainsi monopolisés par un trafic artificiel.
  • Les hit faits par les bots déclenchent la création dynamique des pages et les appels en base de données correspondants.
  • Le nombre de hits/minute de ces bots peut ainsi provoquer des latences conséquentes, surtout s’ils se conjuguent avec un pic de trafic.
Ainsi, si Googlebot respecte la Nétiquette et laisse toujours un délai entre chaque hit, un service en ligne comme SemRush, ou un logiciel SEO mal configuré, peut faire plus de 100 hits/minute.

[illustration logs flood bot]

L’optimisation des performances est le service à forte valeur ajouté de l’infogérance.

Partant ce constat, nous avons développé un module afin de consacrer 100% des ressources machines aux visiteurs réels du site.

Principe de fonctionnement du module DAG Cache.

Le module donne la possibilité de générer un cache dédié au bots :

Quand un bot appelle une page du site, c’est une page en « HTML dur » qui est délivrée.

Il n’y a donc pas d’appel à la base de données, ce qui assure la délivrabilité de la page en un temps record, sans toucher aux ressources serveur.

Par exemple, même si ce n’était pas le but recherché au départ, pour Google le site a un temps d’affichage constant bien en dessous des 100 ms.
Sans nous aventurer à assurer une hausse des positions, nous pouvons garantir un excellent temps de réponse pour Google, avec pour conséquence une hausse drastique des visites de googlebot sur le site.

[illustration Avant/après]

Le module se veut souple d’utilisation : il est possible de choisir la fréquence de mise en cache des pages, de traiter séparément les pages Accueil/Catégories/Produits, ou même de traiter les pages individuellement.

Le module dispose d’une liste de bots conséquente, et une veille quotidienne est faite pour détecter rapidement les nouveaux arrivants.

Nous garantissons une mise à jour constante tout au long de l’abonnement.

Nos clients témoignent