Analyse fichier journal


L'analyse des fichiers journaux ou logfiles permet de recueillir des statistiques sur les vues de page et sur les indicateurs relatifs à l’utilisation d’un serveur web et par extension d'un site web. À la base de l’analyse des logfiles se trouve bien sûr la lecture desdits fichiers. Aujourd’hui, les outils d’analyse "marquent" la page, ce qui permet de mener une analyse conventionnelle (à ne pas confondre avec le social tagging). 

Évaluation des logfiles[modifier]

Lorsque les webmasters ont accès aux logfiles d’un site web, ils sont confrontés à une énorme quantité de données. Pour de très petits projets avec peu de vues, la lecture de ces données et l’attribution de domaines individuels sont des actions pouvant être réalisées manuellement. Mais dès que le trafic augmente et que des périodes de données plus longues sont applicables, des programmes alloués deviennent nécessaires. Ces programmes permettent la saisie et le traitement des données de manière plus systématique et automatisée.

Éléments de l’analyse logfile[modifier]

L’analyse des fichiers journaux permet le classement de paramètres de base concernant l’utilisateur d’un site web, dont :

  • Adresse IP et hébergeur
  • Région ou pays d’origine
  • Navigateur et système d’exploitation utilisés
  • Accès direct par l’utilisateur ou référence depuis d’autres sites web ou campagnes publicitaires
  • Type de moteur de recherche et mot-clé saisi
  • Temps moyen passé sur la page et nombre de pages visitées par l’utilisateur
  • Page depuis laquelle l’utilisateur a quitté le site

Avantages de l’analyse logfile[modifier]

L'analyse des logfiles présentent de nombreux avantages.

  • Réorganisation de données historiques : le serveur web enregistre continuellement les fichiers journaux, ce qui permet une évaluation de manière flexible.
  • Concentration du trafic sur son propre réseau : si on mène une analyse logfile par soi-même et qu’on ne délègue pas cette tâche à un prestataire externe, on conserve le contrôle total sur les données.
  • Mesures des téléchargements interrompus : au cours de la sauvegarde du serveur web, toutes les données collectées et téléchargeables sont rassemblées au sein d’un seul fichier journal. À l’aide d’une approche chronologique, il est possible d’enregistrer avec précision certains points forts, comme combien de temps et combien de documents un seul utilisateur a-t-il téléchargé. Les problèmes pouvant survenir au cours du téléchargement de données peuvent donc être identifiés.
  • Protocole indépendant des pare-feu : l'accès au site web depuis le serveur n'active pas les pare-feux, ce qui ne gêne pas le processus de sauvegarde des logfiles. 
  • Enregistrement automatique des crawlers : les logfiles enregistrent automatique chaque visite. Cela inclut également les accès par les robots des moteurs de recherche.
  • JavaScript ou les cookies ne sont pas nécessaires : Contrairement aux outils de web analytique, l’analyse des logfiles ne requiert pas l'usage de JavaScript ou des cookies. De cette façon, l’analyse est moins sensible à des problèmes techniques. En outre, les fichiers journaux peuvent aussi être enregistrés lorsque les utilisateurs bloquent les outils d'analyse web.
  • Traitement simple : si les logfiles ne sont pas trop extensifs, les données peuvent être lues et segmentées avec des programmes de traitement de données classiques, comme Excel. Une solution logicielle complexe n’est pas toujours nécessaire.

Inconvénients de l’analyse du fichier journal[modifier]

  • Cache et proxy : comme un logfile peut seulement enregistrer des données propres aux accès au serveur, tous les accès qui résultent de la mémoire cache du navigateur via un serveur proxy ne sont pas comptabilisés.
  • Mises à jour régulières nécessaires : pour que les logfiles livrent des chiffres corrects, le logiciel doit être constamment mis à jour par le webmaster. Cela se traduit par des frais de maintenance.
  • Charge de mémoire supplémentaire : comme les fichiers journaux sont enregistrés automatiquement, la quantité de données peut rapidement devenir très importante, notamment dans le cas d'un nombre élevé de visiteurs, car chaque accès au serveur est enregistré. Quiconque mène une analyse de logfiles pour de gros sites web a besoin de ressources de mémoire supplémentaires.
  • Traitement complexe des données pour les gros volumes : pour réaliser une analyse efficace, chaque fichier journal doit d’abord être inscrit dans un programme de traitement de données. Cela implique du travail supplémentaire, surtout lorsqu’on procède à de très nombreuses sauvegardes.
  • Aucun suivi des widgets ou Ajax : un logfile peut seulement stocker les données qui résultent des demandes du serveur. Si des actions sont réalisées sur une page au moyen d’Ajax, elles ne se trouveront pas dans le fichier journal, car il ne s’agit pas d’une vraie requête du serveur.
  • Affectation inexacte des visites : si un visiteur emploie une attribution IP automatique et multiplie les accès à une page en particulier, il apparaît dans le fichier journal plusieurs accès, alors qu’il s’agit du même utilisateur. Ainsi, le comptage du trafic est inexact. Il en va de même lorsque plusieurs utilisateurs accèdent à un site web avec la même adresse IP. Ils seront seulement comptabilisés en tant qu’un seul visiteur.
  • Moins de données qualitatives : par rapport à des outils de web analytique, l’analyse des fichiers journaux fournit moins de données. Vous ne pouvez pas obtenir des indicateurs clés de performance, tels que le taux de rebond.

Intérêt pour le référencement et web analytique[modifier]

À l’aide de l’analyse des logfiles, les experts SEO ont la possibilité d’évaluer et de travailler sur les données relatives au trafic. Dans le même temps, aucune donnée n’est transmise à un prestataire de service externe. Il n’y a donc aucun problème pour la protections des données.

Cependant, les possibilités se limitent à l’analyse, ce qui explique pourquoi l’analyse des fichiers journaux ne doit pas être utilisée comme une seule et unique méthode d’analyse, mais comme un outil complémentaire ou un instrument de test, tout comme Google Analytics est par exemple utilisé.

Pour les plus grands sites web, l’analyse des fichiers journaux est également liée au traitement de très grands volumes de données, ce qui nécessite une infrastructure informatique performante sur le long terme.

Liens web[modifier]