Creation site InternetInternet simple pour tous

Internet facile pour tous !

Fil RSS

Visitez notre site

lundi 30 juillet 2012

Mesurez la visibilité de votre site

Tout propriétaire de site se doit de suivre l'évolution de ce dernier dans les moteurs de recherche et les réseaux sociaux. Vrank.com est un outil qui peut vous y aider.

Lire la suite

jeudi 21 juin 2012

Mise en ligne du nouveau site Intrenet de Kit-ebike

Kit-ebike est un système permettant de convertir votre vélo classique en vélo électrique grâce à l'ajout de kit moteur pour VAE.

Lire la suite

mardi 5 juin 2012

Google privilégie Google+

Népotisme ? Abus de position dominante ? Toujours est-il que le moteur de recherche privilégie de manière flagrante les résultats en provenance de Google+

Lire la suite

lundi 12 mars 2012

20 secondes pour convaincre !

C'est le laps de temps durant lequel votre visiteur décide s'il va rester sur votre site... ou à le quitter définitivement !

Lire la suite

lundi 8 août 2011

Votre site +1

Le bouton +1 est en fait une manière très simple de dire "ça, c'est génial" ou "vous devriez regarder ça". Il permet aux internautes de recommander vos pages dans les résultats de recherche Google afin que votre site se démarque.

Lire la suite

vendredi 5 août 2011

Analyser un site comme Googlebot

L'outil "Analyser comme Googlebot" accessible dans Google Webmaster Tools par le menu "Diagnostic" vous permet de visualiser une page de la même manière que Googlebot.

Lire la suite

jeudi 28 juillet 2011

Ce que nous ne vous dirons jamais en matière de référencement

Créer un site est l'activité première de notre société. Assurer leur visibilité dans les moteurs de recherche en découle logiquement.

Lire la suite

mercredi 27 juillet 2011

Le content spinning à la portée de tous

Le "content spinning" est une technique de référencement qui consiste à réécrire des textes ou parties de textes existants afin de ne pas être pénalisé par les moteurs de recherche pour cause de duplicate content.

Lire la suite

vendredi 20 mai 2011

Google Panda : nouvel algorithme de pertinence

Google Panda, nouvel algorithme mis en place aux États-Unis fin février, a été généralisé le 11 avril à tous les pays pour les requêtes en anglais, uniquement. Comme la précédente modification, cette adaptation n'est pas anodine puisque certains sites auraient perdu jusqu'à 50% de trafic Google.

Le but de Google Panda est de lutter contre le spam dans ses pages de résultats en rétrogradant les sites proposant du contenu de faible qualité, comme les fermes de contenus afin de favoriser ceux qui proposent un contenu unique et de qualité.

L'algorithme est encore en phase de test et a déjà subit 3 vagues d'essai-adaptation. De quoi faire peur au gestionnaire des sites bien situés, principalement chez nous où Google monopolise quasi intégralement les recherches. Si l'algorithme du moteur qui a été entièrement revu, les webmasters des sites à faible contenu peuvent s'attendre à certains coups de bambou.

mercredi 11 mai 2011

Positionnement du site Internet de European Graphics

Le 27 avril 2011, nous mettions en ligne le nouveau site d'European graphics.

Cette mise en ligne a été suivie par quelques coups de téléphone du gestionnaire du site qui souhaitait obtenir notre avis quant à la méthode à utiliser pour parvenir à positionner efficacement son site sur les moteurs de recherche.

Nous lui avons expliqué que :

  • nous avions procédé à un découpage propre permettant de mettre le contenu textuel du site en avant et non les codes HTML
  • il fallait obtenir un maximum de liens pointant vers son site pour augmenter sa popularité
  • nous avions enregistré le site dans les moteurs de recherche principaux et avions ajouté un sitemap automatique à la racine du site
  • le contenu textuel du site était d'une importance essentielle et que la redondance des mots clés devait être suffisamment importante pour que Google sache quels éléments mettre en évidence.

Les textes du site ont été retravaillés par le gestionnaire du site dans ce sens et force est de reconnaître que les résultats n'ont pas trainer à se faire sentir. En effet, 15 jours à peine après la mise en ligne du site Internet, ce dernier apparaît sur la première page de résultat de Google sur les termes suivants (liste non exhaustive) qui sont essentiels pour son activité :

  • Imprimerie la louvière
  • Imprimerie binche
  • Imprimerie charleroi
  • Imprimerie mons
  • Imprimerie nivelles
  • Imprimerie maubeuge
  • Plaquettes (avec ou sans le mot « impression » devant)
  • Plaquettes de présentation (avec ou sans le mot « impression » devant)
  • Folders (avec ou sans le mot « impression » devant)
  • Flyers (avec ou sans le mot « impression » devant)
  • Impression prospectus
  • Depliants
  • Impression dépliants
  • Farde(s) à rabats (avec ou sans le mot « impression » devant)
  • Farde(s) à anneaux (avec ou sans le mot « impression » devant)
  • Cartes postales (avec ou sans le mot « impression » devant)
  • Catalogues (avec ou sans le mot « impression » devant)
  • Impression brochures
  • Impression sur mesure
  • Impression livres
  • Impression invitations
  • Impression affiches
  • Sous-mains (avec ou sans le mot « impression » devant)
  • Impression blocs-notes
  • En-têtes (avec ou sans le mot « impression » devant, avec ou sans « de lettre » après)
  • Enveloppes
  • Impression calendriers

lundi 2 mai 2011

Rédiger efficacement sur son site de vente en ligne

L'e-commerce a le vente en poupe, tous les experts s'accordent à le dire. Cela ne veut pas dire pour autant qu'il suffit de proposer des objets sur un site de vente en ligne pour booster son chiffre d'affaire. La présentation que vous ferez de vos produits, même si elle ne sera pas le seul éléments déclenchant la vente, sera essentielle. Voici quelques pistes de réflexion qui devraient vous permettre de ne pas commettre d'erreur.

Décrire efficacement son produit

Rien de plus parlant qu'une photo. Ce n'est pas sur ce poste que vous pourrez vous permettre des économies. En effet, même si vous pouvez précisez que les illustrations ne sont pas contractuelles, de vrais photos de photographe, prise dans de bonnes conditions, mettront toujours votre produit en valeur. Il sera également judicieux de proposer des vues montrant le produit sous différentes angles.

La description se devra d'être la plus précise et la plus complète possible. Un bon moyen de vérifier si vous êtes dans le bon est de vous mettre à la place d'un acheteur potentiel qui ne connait rien à vos produits. S'il lit votre description, aura-t-il tous les éléments nécessaires ou bien devra-t-il imaginer certains points ?
Pensez, par exemple, à décliner toutes les possibilités de taille, de couleurs, de marques, de dimensions...

Un prix sans confusion

Durant la procédure d'achat, il n'y a rien de plus frustrant que de voir, en fin de commande, la valeur de commande subitement augmentée de frais qui n'étaient pas clairement indiqués dès le départ : frais de dossier, d'envoi...Il s'agit même d'une des raisons principales de l'abandon de panier en cours de commande

Nous vous conseillons donc de préciser tous ces éléments de prime abord.

Faire connaître son site

Faire un site Internet, a fortiori de vente en ligne, et ne pas le médiatiser revient à faire imprimer des dépliants et ne pas les distribuer !

Toutes les techniques de référencement classique pourront être mises en œuvre, dans les moteurs de recherche principaux et dans les annuaires spécialisés dans votre secteur de vente en veillant à sélectionner les rubriques les plus évocatrices de l’activité ou du service en ligne proposé.

Si le référencement naturel n'est pas assez rapide, vous pouvez envisager de promouvoir votre site grâce à du référencement payant, comme les Adwords.

Vous pouvez également compléter ces phases de référencement par une campagne de marketing complémentaire :

  • Echange de liens avec des sites partenaires
  • Affichage de bannières
  • Campagnes de newsletter
  • Organisation de jeux ou de concours
  • Participation sur des forum en rapport à votre activité
  • Créer le buzz autour de votre produit
  • Multiplier la communication en affichant vos produits le plus largement possible :
    • Affichage dans votre adresse mail, vos factures
    • Affichage sur vos véhicules
    • Distribution de gadgets promotionnels
    • Distribution de bons d'essai ou de bons d'achat
    • Sponsoring

jeudi 21 avril 2011

Eviter la duplication de contenu

Ce n'est pas la première fois que je vous explique que le duplicate content est un souci majeur pour tout rédacteur qui souhaite voir le contenu textuel de son site bien positionné dans les moteurs de recherche comme Google ou Yahoo! cette vérification est d'autant plus réelle lorsque la duplication ne se fait pas au sein du même site, mais entre deux sites "concurrents".

En effet, si ces moteurs estiment que vous avez simplement copié le contenu d'un site sans le changer, votre contenu sera pénalisé et ne sera pas indexé. Pour effectuer cette tâche, ils utilisent un algorithme de bardeaux. Son principe de fonctionnement est le suivant : l'algorithme ne se soucie pas de l'ordre des mots et permet donc de vérifier si vous ne vous êtes pas simplement contenté de modifier l'ordre de certains mots.

Duplicate Content Checker est un site en anglais qui vous propose d'effectuer ce type de comparaison à votre place en comparant un texte cible et un texte source. Avant d'effectuer cette comparaison, vous devrez effectuer un petit nettoyage :

  • retirez les balises HTML telles que le <strong>
  • travaillez uniquement en minuscules
  • retirez la ponctuation : virgules, points, apostrophes, retour à la ligne, doubles blancs, barres obliques...

mardi 1 mars 2011

Modification de l'algorithme de Google

Le petit monde des référenceurs est en ébulition. En effet, Google a annoncé qu'il avait modifié son algorithme dans la version US de son moteur. Pour les autres pays, cette modification sera propagée progressivement.

Même si peu d'informations filtrent quant aux détails de cette modification, la version officielle est que cette mise à jour est destinée à faire descendre la visibilité ses sites "de mauvaise qualité" et "à faible valeur ajoutée". Traduisez : "ceux qui copient le contenu d'autres sites" ou proposent comme seul contenu une liste de liens à n'en plus finir (connus sous le nom de "fermes de contenus"). Par ce simple fait, les sites de bonne qualité (au contenu unique et original) devraient voir leur positionnement amélioré.

Pour faire le tri entre le bon grain et l'ivraie, Google utilise ce nouvel algorithme ainsi que les informations remontées par les internautes utilisant la nouvelle extension Personal Blocklist pour Chrome. De cette manière, on diminue drastiquement le risque de voir de faux positifs... Une affaire à suivre, donc.

jeudi 24 février 2011

Des techniques pour exploser son positionnement

En parcourant les blogs que je suis régulièrement, je n'ai pas manqué de tomber en pâmoison devant l'article "SEO : les dernières techniques américaines pour faire exploser votre trafic" de Presse-Citron.

Son gestionnaire y explique que l'obtention de liens entrants (backlinks) est essentiel au bon positionnement d'un site dans Google. Jusque là, rien de bien étonnant. Ce qui l'est, par contre, ce sont les techniques décrites qui, même si elles font appel au référencement naturel, sont réellement "limites" :

  • création de sites satellites destinés uniquement à faire la promotion du site cible
  • insertion de liens dans des textes publiés sur des sites Web 2.0
  • insertion de liens sur des blogs créés uniquement dans ce but
  • insertion de liens sur des sites de contenus gratuits (GoArticles, iSnare…)
  • utilisation du logiciel The Best Spinning pour créer de nouveaux textes contenant des variantes et des synonymes des textes du site à promotionner

Pour ce faire, pas besoin de passer ses soirées à laisser manuellement des commentaires sur les blogs que vous jugez intéressants en terme de référencement. Pat Flynn, l'un des SEO à l'origine de la technique, explique qu'il utilise "Blog Blueprint", un logiciel qui lui permet de déposer des articles et les liens nécessaires sur plusieurs blogs très rapidement.

Si cette technique semble efficace, reste à voir le temps que Google prendra pour se rendre compte de ce souci... En ce qui nous concerne, étant signataire de la charte charte eTic métier SEO, ce genre de techniques nous sont tout simplement interdites.

mercredi 16 février 2011

Un blog pour augmenter la visilité de son site e-commerce ?

Il y a quelques mois, je vous expliquais que créer un blog pour augmenter la visibilité de son site principal était une bonne idée en terme de référencement.

Je voudrais en ajouter une couche en ce qui concerne les sites de vente en ligne ou e-commerce.

Le premier frein exprimé par nos clients est le suivant "Je ne suis pas sûr de trouver des choses intéressantes à raconter tous les jours". Autrement dit, si je commence un blog, je ne veux pas le laisser à l'abandon après quelques mois, voire quelques semaines.

Si l'on réfléchit quelque peu, le simple fait de lancer une activité d'e-commerce va générer une masse de nouveautés. Toutes ces impressions, ces hésitations, ces problèmes ainsi que leurs réponses et solutions ne vont pas manquer d'intéresser de nombreuses personnes. A commencer par les lecteurs qui ont envie de faire la même chose que vous mais n'en ont pas encore eu le courage (ou l'intelligence ?). Une fois la phase de démarrage passée, vous pourrez communiquer votre enthousiasme par rapport à vos produits, à vos nouveautés, aux nouvelles fonctionnalités ajoutées au site d'e-commerce, aux actions menées pour vous faire connaître et apprécier.

Il faut évidement garder la tête sur les épaules. Tous les visiteurs de votre blog ne deviendront pas directement et irrémédiablement des clients, mais l'augmentation en terme de pages indexées est déjà suffisamment important pour justifier le temps à consacrer à la rédaction des articles. Vous aurez également la possibilité de faire des liens depuis votre blog vers votre site, afin de mettre en avant une promotion ou un produit...

Si vous voulez renforcer la visibilité de votre site e-commerce et booster votre chiffre d’affaire, n'hésitez pas à nous contacter pour demander une remise de pris gratuite…

mardi 11 janvier 2011

Un concours pour agmenter la visibilité de votre site

Lorsqu'on dispose d'un site Internet et qui plus est d'un site E-Commerce, le point le plus important est d'en faire la promotion.

Certains propriétaires se contentent du référencement naturel. Cependant, ce dernier n'est pas toujours suffisant, a fortiori lorsque le site est tout nouveau et qu'il n'a pas encore eu le temps de se faire une place au soleil.

Pour répondre aux besoins de ces internautes plus exigeants, il existe la possibilité d'avoir recours à l'achat de mots clés. Si je vous ai déjà parlé ici des Google Adwords, je voudrais aujourd'hui vous présenter un autre produit qui peut constituer une alternative tout à fait valable développée par Microsoft pour son moteur Bing. Les lecteurs les plus attentifs en comprendront tout de suite l'attrait de ce service lorsqu'ils auront appris que 61% des internautes fréquentant le portail Bing sont plus enclin à acheter que ceux d’autres moteurs de recherche ! Une manne à ne pas rater répondant au doux nom de Microsoft Advertising adCenter !

Microsoft Advertising adCenter

Comment cela fonctionne-t-il ?

Quand un utilisateur tape une requête dans le moteur de recherche Bing, lorsque la page de résultat s’affiche, les liens qui apparaissent au-dessus de la page ainsi que sur la droite sont des annonces sponsorisées (elles sont encadrées d'orange dans cette capture d'écran)

Microsoft Advertising adCenter

Le travail de la plateforme Microsoft adCenter est de commercialiser ces mots-clés afin de permettre aux entreprises (TPE, PME, PMI...) d'obtenir rapidement un retour sur investissement des investissements publicitaires consentis sur Internet.

Intéressé ?

Cela tombe bien car, comme une bonne nouvelle ne vient jamais seule, Microsoft adCenter vous propose de participer à un grand tirage au sort permettant de gagner jusqu’à 1 an de visibilité sur le moteur de recherche Bing. Les 3 gagnants du concours pourront dépenser 200 euros par mois d’annonces de liens sponsorisés pendant 3, 6 et 12 mois et ainsi :

  • profiter d’une très bonne visibilité sur le portail Bing
  • apparaître en première page à chaque fois qu’un mot-clé les concernant sera tapé par un utilisateur.

La procédure est on ne peut plus simple : il suffit pour cela de se rendre à l'adresse du jeu http://adcenter-2011.brainsonic.com et de remplir le formulaire d'inscription. Aucune restriction autre que cette inscription n'est prévue... Ainsi, il n'est même pas obligatoire d'être déjà client. J'aurais tendance à dire que ce serait mieux... Cela vous permettrait de faire connaissance avec ce produit... avant de l'adopter !

Microsoft Avertising adCenter


Article sponsorisé

Partage propulsé par Wikio

mercredi 15 décembre 2010

Le WEBMARKETING : les clés du marketing Web pour votre entreprise !

Demain, jeudi 16 décembre 2010 à partir de 13h, sur l'Espace Wallonie Picarde (rue Follet – 7540 Tournai-Kain), nous participerons à une conférence de présentation des différentes techniques de marketing via internet permettant d’améliorer sa visibilité sur la toile et d’adopter une stratégie cohérente et efficace en matière de communication sur Internet.

Le WEBMARKETING : les clés du marketing web pour … votre entreprise !

Nous vous invitons à nous y rejoindre. sachez simplement que, même si la participation est gratuite, l'inscription est obligatoire.

Un programme complet d’interventions d’experts permettra d’aborder tous les aspects du webmarketing. Seront abordés :

  • les perspectives, les bonnes et les mauvaises pratiques du webmarketing
  • les techniques d’écriture Web
  • le mode de fonctionnement du célèbre moteur de recherche Google
  • les techniques de référencement payant
  • l’utilisation professionnelle d’eBay
  • le modus operandi des réseaux sociaux
  • la réputation en ligne
  • l’e-mail marketing

En parallèle, tout au long de l’après-midi, vous aurez la possibilité de soumettre votre site Web à l’avis d’experts sous forme d’un audit personnalisé (gratuit)

Un moment sera dédié à tout un chacun désireux de présenter sa structure et ses compétences.

L’événement se clôturera par une table ronde, réunissant tous les acteurs de cet événement. Vous aurez finalement l’occasion de rencontrer sur des stands les orateurs et d’approfondir les discussions.

jeudi 2 décembre 2010

Eviter le duplicate content dans vos pages

Le duplicate content est un problème assez ennuyeux en terme de référencement. De quoi s'agit-il exactement ?

Pour éviter les doublons, les moteurs de recherche filtrent leurs résultats et éliminent les pages qui présentent un contenu identique ou fortement similaire. Seule une page, qui peut être la page source, mais pas forcément, figure dans la page des résultats. Les pages dupliquées pourront cependant apparaître dans les résultats si la recherche porte sur une partie du contenu qui est originale.

Une manière d'éviter ce souci, est d'utiliser la balise link rel=canonical qui donne l'URL de la page qui a servi de source en la formulant de cette manière :
<link rel="canonical" href="http://www.site.com/dossier/page.html" />

vendredi 22 octobre 2010

Influence du multi-canal sur le référencement

Le 14 octobre, je vous parlais de l'émission coûte que Coûte sur RTL-TVI qui avait montré l'entreprise Biosain, un de nos clients.

L'influence d'une telle émission est évidente en terme de recherche sur le Web !

Ce graphique montre en effet non pas l'évolution de la consultation du site, mais le nombre de recherches effectuées sur des termes porteurs pour la société :

  • biosain : +336 %
  • panier bio : +962 %
  • certysis : +220 %

Nous n'insisterons jamais assez sur l'importance des réseaux sociaux sur le référencement... De même, YouTube est également une voie royale pour multiplier les portes d'entrée...

Il est donc aujourd'hui prouvé qu'un article de presse ou une émission de télévision garantit une explosion des visites dans les jours qui suivent sa diffusion... La difficulté consiste en garder ces nouveaux venus...

jeudi 21 octobre 2010

Nouveau guide officiel du référencement Google

Même si le célèbre moteur de recherche ne communique pas beaucoup à propos de son algorithme de recherche, il n'en oublie pas moins les sociétés de création de sites Internet et de SEO.

Pour preuve, il vient de mettre gratuitement à leur disposition un livret PDF de 32 pages en anglais intitulé "Search Engine Optimization Starter Guide". Une bonne manière de construire son contenu de manière intelligente et adaptée.

Voici la structure du document proposé :

  • Les bases du référencement
    • Créez des titres de page uniques et précis
    • Servez-vous de la balise <meta description>
  • Améliorer la structure de votre site
    • Améliorez la structure de vos URL
    • Facilitez la navigation dans votre site
  • Optimisez le contenu
    • Offrez du contenu et des services de qualité
    • Écrivez de meilleurs textes d'ancre
    • Optimisez votre utilisation des images
    • Employez les étiquettes de titre convenablement
  • Traitez avec les robots des moteurs
    • Utilisez efficacement le fichier robots.txt
    • Méfiez-vous du paramètres "nofollow" dans les liens
  • Optimisation pour le téléphones portables
    • Informez Google des emplacements de sites mobiles
    • Guidez efficacement les utilisateurs mobiles
  • Promotions et analyses
    • Promotionnez votre site Web de manière adéquate
    • Servez-vous des outils libres pour les webmasters

mardi 14 septembre 2010

MayDay et Caffeine Update de Google

J'ai assisté jeudi dernier à une conférence de Stéphane Bouchez, consultant en stratégie Internet et expert en référencement.

Le thème de cette conférence reposait sur une véritable révolution dans le domaine du référencement des sites Internet : le nouvel algorythme MayDay de Google apparu au mois de mai 2010. Si l'algorithme de Google est en constante évolution, ce dernier changement, destiné à rendre les résultats toujours plus pertinents, est loin d'être sans impact : certains sites ont perdu jusqu'à 30% de trafic tandis que d'autres, plus petits, en ont gagné.

A ce premier changement vient se greffer, un mois plus tard, la sortie de Google Caffeine qui permet dès lors à Google de proposer des résultats :

  • en temps réels
  • plus pertinents
  • plus rapides

Et c'est loin d'être tout ! En effet, dès à présent Google personnalise ses pages de résultats en fonction :

  • de votre historique de recherche
  • d'une interprétation de votre demande pour "deviner" ce que vous cherchez réellement :
    • une information sur un site particulier ?
    • de la documentation ?
    • un avis à propos d'un produit ?
    • un prix bien précis ?
  • de la fraîcheur des résultats disponibles
  • de l'adresse IP depuis laquelle vous faites la recherche
  • de l'adresse Google utilisée et de la langue définie
  • de la langue du navigateur

Cerise sur le gâteau, les résultats reposent également sur les réseaux sociaux : votre profil et tout le réseau en liaison avec vous...

Dès à présent, les propriétaires de site vont devoir abandonner les anciens principes d'optimisation pour tenir compte d'autres critères :

  • l'importance du nom de domaine et de son ancienneté sur Internet
  • le serveur sur lequel le site est hébergé
  • l'architecture du site
  • le contenu qui est ESSENTIEL
  • les liens internes
  • la provenance des liens externes
  • ...

Il sera, de plus, indispensable d'avoir une couverture Internet la plus étendue possible :

  • blog
  • forums
  • annuaires
  • communiqués de presse
  • portails vidéos et photos
  • affiliations

Source : http://www.slideshare.net/Stephanebouchez/referencement-google-mayday-caffeine-impacts-solutions

vendredi 27 août 2010

Nouvelle version de la charte e-Tic

Depuis le 1e juillet dernier, l’addendum « SEO » (référencement naturel) fait partie intégrante de la Charte eTIC dont nous sommes signataires

La version française de cette charte est consultable sur http://www.charte-etic.be/publications/charte-etic.pdf.

La version en néerlandais est dorénavant également accessible : http://www.charte-etic.be/publications/handvest-etic.pdf..

lundi 2 août 2010

Dépister les sites provoquant des erreurs 404

La page 404 est la page d'erreur qui s'affiche lorsqu'une page demandée sur votre site n'est pas trouvée. C'est assez ennuyeux de donner cette image à un visiteur... Si rechercher les pages de votre propre site qui provoquent cette erreur n'est pas difficile, que faire pour trouver les pages d'autres sites qui présentent les mêmes faiblesses ?

LinkPatch est un site pratique qui propose un outil gratuit s'il n'est installé que sur un seul site.

Son principe de fonctionnement est simple: après vous être inscrit en ligne, le site vous affiche un code Javascript à copier-coller dans l'en-tête de votre page d'erreur.

Une fois en place, l’analyse peut commencer. Il ne vous reste alors qu'à contacter les gestionnaires des sites à problèmes et leur signaler la page fautive...

mardi 8 juin 2010

Créez un blog pour booster votre site Internet

Il n'est pas simple de faire sortir son site en tête des résultats des moteurs de recherche. Il suffit de voir le nombre de pages Internet consacrées au référencement pour s'en convaincre. Si certaines bonnes habitudes aident au référencement naturel, le fait d'ajouter un blog en complément de son site pour arriver à ses fins n'est pas anodin.

Une enquête (en anglais) menée par Hubspot, permet de s'en assurer. Cette enquête met en avant les avantages obtenus en adjoignant un blog à son site :

  1. Augmentation du nombre de visiteurs (+55%)
  2. Accroissement des liens entrants ;(+97%)
  3. Multiplication des pages indexées ;(+434%)

Chacun de ces arguments, pris séparément, constitue un avantage en terme de référencement... Imaginez le résultat si vous les combinez ! Qui plus est, si l'on veut aller plus loin que les chiffres fournis par l’étude, le blog est un outil incontournable si vous souhaitez démontrer votre expertise dans votre domaine d'activité.

Peu coûteux, rapidement amorti en terme de référencement, nous vous invitons à nous contacter pour recevoir une offre gratuite d'implémentation du blog

jeudi 22 avril 2010

L'importance des réseaux sociaux sur le référencement

Il n'est pas simple de faire sortir son site en tête des résultats des moteurs de recherche. Il suffit de voir le nombre de pages Internet consacrées au référencement pour s'en convaincre. Si certaines bonnes habitudes aident au référencement naturel, le fait d'utiliser les réseaux sociaux pour arriver à ses fins n'est pas anodin.

Voici par exemple, la page de résultat de Yahoo! lorsqu'on encode mon nom... N'y voyez-là aucune narcissisme ou ego exacerbé, mais une simple volonté d'illustration...

La même requête effectuée sur Google :

Et enfin sur Bing :

Pour les trois moteurs de recherche, ce sont des résultats de Facebook qui apparaissent en premier lieu. Plus loin dans les résultats on remarque également la présence de Twitter, Linkedin, Viadeo, et quelques sites personnels. Si Easy-Concept, la société pour laquelle je travaille apparaît sur la première page de Yahoo!, il faut atteindre la deuxième sur Google ou Bing pour y arriver.

Mais quels que soient les résultats, ils sont tous pertinents et permettront à un éventuel prospect de trouver mes coordonnées et de me contacter.

La raison en est assez simple. Les moteurs de recherche ont compris le poids de ces réseaux sociaux et leur font de plus en plus confiance. Cet état de fait augmente donc la visibilité de ces sites. Quant à vos profils, ils seront d'autant mieux indexés que vous les actualisez régulièrement. Alors, oui, cela demande du temps, mais le retour est suffisamment intéressant pour y consacrer une petite part de vos journées.

jeudi 15 avril 2010

Comment augmenter la visibilité de votre blog ?

Rédiger des articles pour un blog et le faire de manière régulière demande un minimum de discipline. Alors, si vous le faites, autant disposer d'un maximum de visibilité.

Une manière d'y arriver est d'utiliser les services de Google, et plus particulièrement Google Actualités.

Si cette approche vous intéresse, il convient tout d'abord de vérifier que votre blog n'est pas déjà repris dans Google Actualités. Il suffit, pour cela, d'indiquer site:www.monblog.be dans la zone de recherche et de cliquer sur "Recherche Actualités".

Si votre blog n'est pas repris, vous verrez s'afficher le message suivant :

Aucun document ne correspond aux termes de recherche spécifiés : site:www.monblog.be

Suggestions :

- Vérifiez l'orthographe des termes de recherche.
- Essayez d'autres mots clés.
- Utilisez des mots clés plus généraux.
- Essayez la Recherche dans les archives de Google Actualités.
- Essayez Google Recherche de blogs.

Vous pouvez également consulter les titres du jour sur la page d'accueil de Google Actualités.

Si tel est le cas, il vous reste alors à compléter le formulaire de demande d'enregistrement qui sera vérifié par Google avant validation.

Sachez cependant que seules les grosses structures ont une chance d'y arriver car Google n'accepte pas les sites d'information rédigés et actualisés par une seule personne sur les actualités. Les sources incluses comprennent généralement plusieurs rédacteurs et éditeurs ainsi que des informations sur leur société et sur les personnes à contacter.

mardi 6 avril 2010

Les outils gratuits moins connus qui supportent votre marketing en ligne

Google : les outils gratuits moins connus qui supportent votre marketing en ligne, tel était le titre de la conférence que je suis allé suivre jeudi premier avril au salon Entreprendre 2010. Cette conférence d'une heure (mêlant français, néerlandais et anglais) était donnée par David Gillain, Agency Business Development Manager chez Google.

Des 5 outils présentés, je ne parlerai ici que des 4 premiers, laissant Google Analytics de côté. Il est à noter qu'un compte Google est nécessaire pour y avoir accès.

KGoogle Search-based Keyword Tool (Générateur de mots clés)

Ce site est un outil de recherche de mots-clés. Cette recherche peut s'effectuer :

  • au départ d'expressions ou termes descriptifs
  • en fonction du contenu d'un site Web

Cet outil est indéniablement destinés aux sociétés qui souhaitent trouver de manière judicieuse les mots clés à utiliser dans Google AdWords. Il constituera également une aide à la réflexion des propriétaires de sites qui souhaitent procéder au référencement naturel de leur site.

Une fois la recherche lancée, le site propose 2 listes de suggestions :

  • Mots clés en rapport avec le(s) terme(s) entré(s)
  • Mots clés supplémentaires à envisager

Pour chaque suggestion de mot-clé, Google indique :

  • La concurrence entre annonceurs (le nombre d'annonceurs qui enchérissent pour chaque mot clé par rapport à l'ensemble des mots clés de Google. La barre ombrée représente une évaluation d'ordre général, qui vous aide à déterminer le degré de compétitivité pour un mot clé donné)
  • Le volume de recherche locale (le nombre approximatif de requêtes de recherche correspondant au résultat de chaque mot clé. Cette statistique s'applique aux recherches effectuées sur Google et sur le réseau de recherche au cours du mois échu. Elle tient compte de votre situation géographique et de vos paramètres linguistiques)
  • Le volume de recherche mensuel global (le nombre approximatif mensuel moyen de requêtes de recherche correspondant au résultat de chaque mot clé. Cette statistique s'applique aux recherches effectuées sur Google et sur le réseau de recherche au cours des douze derniers mois. Elle inclut le trafic concernant tous les pays et toutes les langues)

Insights for search (tendance des recherches)

Grâce à ce site, vous pourrez comparer

  • Des termes de recherche
  • Des lieux
  • Des périodes

Les filtres suivants peuvent être appliqués :

  • Recherche sur le Web, recherche d'images, recherche d'actualités, recherche de produits
  • Dans le monde entier ou un pays spécifique
  • Par année depuis 2004, les 7 - 30 ou 90 derniers jours
  • Par catégorie d'activité

Cet outil se révélera très utile pour :

  • trouver comment utiliser les bons termes en raison du public visé (Par exemple, les belges parlent de "maisons passives" alors que les français parlent de "maisons biologiques")
  • trouver les moments où les utilisateurs effectuent une recherche particulière afin de devancer leurs attentes sur le site (Par exemple, quand un voyagiste doit-il commencer à afficher les offres pour les croisières)
  • vérifier si pénétrer un nouveau marché peut s'avérer intéressant selon la zone du pays visé.

Ad preview tool (Outil de prévisualisation des annonces)

Lorsque vous vous connectez à Google, il tient compte de votre langue et de votre pays d'origine pour afficher la version de son moteur de recherche la plus adaptée à vos paramètres.

Ce souci de convivialité vous empêche cependant de vérifier ce que voient des utilisateurs particuliers dans un pays donné.

Il vous suffit d'entrer un mot clé, puis de sélectionner un domaine Google, la langue d'affichage et l'emplacement de prévisualisation des annonces pour simuler l'affichage en question

Local Business Center

Le Local Business Center vous offre un excellent contrôle sur la manière dont votre fiche d'entreprise apparaît dans Google Maps. Étant donné que les recherches d'entreprises se font de plus en plus via Internet plutôt que par tout autre moyen, il est important de vous assurer que votre fiche d'entreprise peut être facilement trouvée sur Google Map.et Google Earth. Les informations que vous publiez et validez via le Local Business Center s'afficheront en haut de votre fiche d'entreprise.

J'en ai déjà parlé dans un billet précédent, disant comment procéder pour ajouter votre société sur les cartes de Google

vendredi 19 mars 2010

Comment obtenir de nouveaux backlinks

Afin d'augmenter la popularité d'un site et de permettre un bon positionnement dans les moteurs de recherche, il est très important de disposer d'un maximum de backlinks. Autrement dit, de liens pointant d'un autre site vers le vôtre. Plus vous en aurez, plus Google saura que votre site est populaire et plus il a de chance d'apparaître en haut de la page des résultats... Il n'y a pas 36 solutions pour ce faire, et toutes demandent un gros travail.

La prospection active ou link ninja

Cette première technique consiste à se mettre à la recherche de sites susceptibles d'accepter de placer un lien vers une de vos pages. Plusieurs critères sont à prendre en compte pour assurer l'efficacité du lien :

  • Le site doit développer une thématique apparentée à la page Web vers laquelle le lien doit pointer
  • Le site doit, lui-même, est bien positionner dans Google
  • La page sur laquelle le lien est établi ne doit pas contenir trop de liens sortants pour éviter de diluer la notoriété
  • La page devrait disposer d'un pagerank identique ou supérieur à la page Web pointée

Une fois cette sélection faite, il vous reste à contacter le webmaster de chacun des sites Internet afin de leur proposer un échange de liens. Ne vous attendez pas à un enthousiasme débordant de leur part. Certains d'entre eux sont sollicités régulièrement (j'en sais quelque chose) et n'ont pas forcément envie de rentrer dans ce jeu. Soyez pourtant persévérant, car il y a quelques avantages indéniables à cette approche :

  • Vous pourrez choisir vous-même les pages Web à mettre exergue
  • Vous pourrez choisir, en fonction des résultats, le nombre des backlinks pointant vers chacune de vos pages
  • Vous pourrez définir vous-même les textes servant à établir le lien, ces textes étant bien interprétés par Google
  • Vous pourrez obtenir des liens en provenance de sites ayant des anciennetés différentes

La prospection par le contenu et l'originalité ou link baiting

Si vous ne souhaitez pas passer vos week-end à échanger des mails afin d'obtenir des liens pointant vers votre site, vous devrez alors proposer un contenu de qualité et original par rapport aux autres sites Web. C'est l'intérêt que vos pages vont présenter qui va pousser les webmatsters de site d'établir eux-mêmes un lien vers votre site. Comment ?

  • publier une information importante avant tout le monde,
  • proposer la traduction ou la vulgarisation de données techniques
  • publier un article qui fera réagir la blogosphère ou Internet
  • proposer un service gratuit répondant à un réel besoin
  • rédiger un livre et le proposer en libre téléchargement
  • proposer un contenu très peu répandu sur Internet

Ces deux techniques sont complémentaires et il sera souvent utile de faire, simultanément appel à l’une et à l’autre pour une efficacité maximale.

mardi 15 décembre 2009

Page speed aide à minimiser le temps de chargement de vos pages

Page Speed est un outil en anglais développé par Google qui a pour objectif d'aider les développeurs à minimiser le temps de chargement de votre site Internet ou de votre blog.

Cet application se présente sous la forme d'une extension pour Firefox. Elle se compose de deux onglets visibles dans Firebug. Grâce à l'analyse de la performance de vos pages en fonction des critères établis dans une liste et aux suggestions d'optimisations vous devriez être à même d'apporter les modifications nécessaires à vos pages.

lundi 14 décembre 2009

La vitesse de votre site va-t-elle influencer votre référencement ?

Google Webmaster Tools est un outil gratuit proposé par Google qui permet de suivre efficacement le référencement de son site Internet ou de son blog :

  • Configuration du site
    • Sitemaps
    • Accès du robot d'exploration
    • Liens de site
    • Changement d'adresse
    • Paramètres
  • Votre site sur le Web
    • Requêtes les plus fréquentes
    • Liens vers votre site
    • Mots clés
    • Liens internes
    • Statistiques sur les abonnés
  • Diagnostic
    • Erreurs d'exploration
    • Statistiques sur l'exploration
    • Suggestions HTML
  • Labos
    • Analyser comme Googlebot
    • Informations détaillées relatives au logiciel malveillant
    • Performances du site

Depuis quelques jours, le dernier item (Performances du site) a été ajouté aux labos. Cet outil vous permet de connaître le temps de chargement moyen de vos pages, leur évolution, ainsi que des suggestions faites par page Speed pour améliorer leur temps de chargement.

jeudi 29 octobre 2009

Nouveaux outils dans Google Webmaster

Les Labos des Outils pour les webmasters sont un centre d'essai dans lequel sont testées certaines fonctionnalités expérimentales qui ne sont pas encore tout à fait prêtes pour une diffusion grand public. Ces fonctionnalités peuvent, à tout moment, être modifiées, ne plus fonctionner ou être supprimées.

On y trouve deux nouveaux outils :

Analyser comme Googlebot
La fonctionnalité "Analyser comme Googlebot" vous permet d'explorer une page de votre site de la même manière que Googlebot, le robot indexeur de Google

Informations détaillées relatives au logiciel malveillant
Cet outil permet de déterminer quelles portions de code, enregistré sur votre site, font qu'une page est considérée comme potentiellement dangereuse par Google

mardi 13 octobre 2009

Le libellé des liens influence le référencement

Dans un billet précédent, je vous ai déjà expliqué que le nombre de liens pointant vers votre site était important pour un bon positionnement dans les moteurs de recherche. De même, interlier vos pages internes permet également de les mettre en valeur. Reste que la manière de le faire permettra un bon retour sur les moteurs de recherche...ou non.

En effet, les robots des moteurs de recherche "lisent" le contenu textuel de votre lien afin d’établir une pertinence entre le lien et le contenu de la page pointée.

  • Un lien pointant vers une page avec un libellé "Cliquez ici" ne sera pas efficace
  • Un lien pointant vers une page avec un libellé "Informations sur la création de sites" sera très pertinent.

Il est donc important de soigner le libellé de vos liens afin d’apporter un sens supplémentaire à la page de destination.

vendredi 9 octobre 2009

La longue traîne de Google

Tout propriétaire de site Internet qui cherche à optimiser le positionnement de son site Web dans Google a sûrement déjà entendu parler de longue traîne. Le concept est assez simple à comprendre. Afin d'illustrer mes propos, j'ai utilisé les statistiques de visites de notre blog, sur une période d'un mois.

Durant ce mois, le blog a reçu 18 140 visites en provenance des moteurs de recherche. Les mots clés les plus souvent encodés et leur fréquence sont les suivants :

  • winmail.dat : 672
  • iban : 286
  • rtbf en direct : 197
  • iban bic : 120
  • google bot : 110
  • documentviewer : 109
  • acheter une gare : 100
  • code iban : 95
  • favicon animé : 94
  • doodle sondage : 90
  • outlook en ligne : 84
  • internet : 81
  • la une en direct : 81
  • adresse mac : 79
  • adresse mac d'un pc : 75
  • document viewer : 70
  • mail html : 68

Placés en graphique, avec tous les autres résultats, voici ce que l'on obtient :

La courbe grise représente les mots-clés notés ci-dessus, tandis que la courbe orange reprend tous les mots-clés moins souvent introduits.

Le phénomène de longue traîne est immédiatement visible : les mots clés les plus encodés constituent un pic suivi d'une série de mots clés moins fréquemment demandés. En terme de trafic, les premiers ne représentent que 13% des visites tandis que tous les autres cumulés constituent 87 % des visites.

En conclusion, le référencement d'un site ne doit pas se faire sur quelques mot clés bien choisis puisque la majorité du trafic se fait sur des termes moins populaires.
Une manière toute simple d'utiliser cet effet de longue traîne est donc :

  • de proposer, sur votre site, un contenu le plus vaste possible de manière à être visible sur une grande variété de mots-clés,
  • d'optimiser quelques pages de son site pour favoriser les mots-clés stratégiques pour votre communication

lundi 5 octobre 2009

Traquer les erreurs 404 de vos sites

Quelle que soit la taille de votre site, si vous avez de nombreux liens au sein de vos pages, il y a fort à parier qu'au fil du temps certains d'entre eux ne pointent plus vers une page existante. Vos visiteurs, lorsqu'ils cliquent sur ces liens morts, aboutissent alors sur une page en erreur 404, le code renvoyé par un serveur HTTP pour indiquer que la ressource demandée n'existe pas.

Les internautes, impatients par nature, bouderont votre site lorsqu'ils se rendront compte que votre site n'est pas à jour.

Le robot des moteurs de recherche sont eux aussi confrontés à ce problème et, si le fait est récurrent, il est fort probable qu'ils vous pénaliseront en faisant descendre votre site dans l'ordre des résultats pertinents.

La seule solution est de détecter quelles sont les pages qui posent problème. Rassurez-vous, vous n'allez pas devoir cliquer manuellement sur tous vos liens pour en vérifier l'URL. Deux logiciels s'acquittent très bien de cette tâche.

Xenu

Il suffit de spécifier à Xenu l'URL d'une page de votre site Web (que ce soit sur Internet ou sur votre disque dur) et le logiciel se charge d'en vérifier la validité des liens. Une fois son analyse effectuée, il affiche les résultats et un rapport détaillé de l'analyse effectuée vous est proposé :

  • Adresse de la page
  • Status
  • Type de fichier
  • Taille du fichier
  • Date de la dernière modification
  • Niveau de profondeur
  • Nombre de liens sortant de la page
  • Nombre de liens pointant vers cette page
  • Serveur
  • Description des erreurs
  • Temps d’accès de la page
  • Encodage des caractères

LinkExaminer

Cet outil propose les mêmes fonctionnalités que Xenu complétées par d'autres fonctionnalités bien intéressantes dans le cadre de l'optimisation d'un site.

  • Affichage de l’URL complet
  • Statut HTTP de la page lors de la connexion
  • OK si l'accès s'est bien déroulé ou explication de l'erreur
  • Lien interne ou externe
  • Règle du fichier robots.txt ou non
  • Présence on non de l'attribut nofollow
  • URL dynamique ou non
  • URL absolu ou relatif
  • Dépistage des manques de balise Title, Description et d'excès de longueur de la balise Title
  • Affichage du titre
  • Niveau de profondeur
  • Nombre de liens pointant vers cette page
  • Nombre de liens sortant de la page
  • Poids de la page
  • Date de dernière modification
  • Type de liens
  • Temps d’accès de la page
  • Autres pages similaires sur Internet

vendredi 2 octobre 2009

Google n'utilise pas la balise meta Keywords pour indexer votre site

Cette fois, c'est sûr et indéniable ! Google l'affirme lui même : il n'utilise pas la balise meta Keywords dans son web ranking !

La raison en est toute simple : cela permet d'éviter à des fraudeurs de mettre vos mots-clés dans leur balise. Seuls les contenus textuels de la page sont réellement pris en compte. Par contre, la balise description est utilisée (parfois) dans l'affichage de la page de résultat.

jeudi 1 octobre 2009

Authentifier son site Internet par les moteurs de recherche

Comprendre la raison du bon (ou du mauvais) positionnement de son site Internet n'est pas toujours très simple. Sans constituer la panacée, les grands acteurs du secteur proposent des moyens de comprendre et d'analyser votre site.

Que pourrez-vous vérifier grâce à cela ?

  • les mots-clés introduits dans le moteur de recherche qui ont conduits les internautes sur votre site
  • le nombre, l'origine et le libellé des liens pointant vers vos pages
  • préciser le sitemap XML qui permettra au moteur d'indexer la totalité de votre contenu

L'usage de ces outils est 100% gratuit. Il est cependant lié à deux conditions :

  • Posséder un compte chez chacun de ces moteurs
  • Prouver que vous êtes bien autorisé à gérer le site. Cela se fait très simplement :
    • en ajoutant une balise d'authentification dans les Meta de votre page d’accueil
    • en uploadant sur le serveur un fichier html ou xml que le moteur va tenter de trouver sur votre site

mercredi 9 septembre 2009

Mon site n'est pas bien positionné dans Google

Les clients qui nous contactent dans le but de faire ou refaire leur site Internet nous posent de plus en plus fréquemment la question du positionnement de leur site Internet.

Nous leur disons alors que plusieurs paramètres entrent en ligne de compte et que, si l'un des éléments tend à manquer, c'est tout le principe du positionnement qui est mis en péril.

Voici donc un petit rappel de ce qui est indispensable pour espérer avoir un site placer en ordre utile dans les page de résultats de Google :

  1. Proposer un contenu textuel riche, varié et si possible, original. Un site ne contenant que des images parviendra très difficilement dans les hautes sphères. Un site reprenant du contenu publié sur un autre site de manière visible sera également pénalisé.
  2. Ajouter régulièrement de nouvelles pages à votre site ou votre blog pour le faire vivre. Un site disposant de nombreuses pages sera positionné plus facilement qu'un petit site de 5 pages. Lorsque je dis "régulièrement", cela recouvre non seulement la régularité mais également la fréquence élevée. Une page tous les six mois n'aura pas grande incidence.
  3. Disposer de nombreux liens pointant vers votre site. Si votre site est seul car aucun lien ne pointe vers lui, Google trouvera que sa popularité est trop faible pour mériter le top.

Ces trois principes, loin de constituer à eux seuls les critères d'un bon positionnement, sont pourtant la base du référencement. Et si l'un de ces trois points vient à faire défaut, c'est tout le positionnement qui vient à faiblir. Pour bien comprendre cet état de fait, considérez que plutôt que d'être des éléments additionnés, ils sont multipliés. Tous vos efforts sur deux points donneront toujours zéro si l'un des éléments est nul.

Si une étude plus approfondie vous intéresse, je vous invite à lire tous les billets consacrés au référencement dans ce blog ou à nous contacter si vous souhaitez que nous intervenions sur votre site.

mercredi 15 juillet 2009

Easy-Concept, signataire de la charte eTic métier SEO

Déjà signataires de la charte eTIC portant sur une bonne communication entre les fournisseurs et leurs clients, plusieurs sociétés spécialisées, dont Easy-Concept, ont souhaité s'engager plus loin en matière de bonne pratique professionnelle.

Nous avons participé à quelques réunions avec les grandes pointures du référencement. De ces réunions est né un engagement déontologique complémentaire portant sur les missions de référencement. Les sociétés qui effectuent du référencement ou de l'optimisation de site peuvent y souscrire.

Il a ainsi été convenu que, sous le plan déontologique, le fournisseur s'interdise :

  1. d'employer des pratiques portant atteinte aux droits de la personne ou de la propriété intellectuelle, ou nuisant au référencement de concurrents ;
  2. de promettre (garantir) des résultats de positionnement limités à une requête et un moteur, et plus généralement de promettre des résultats qui ne pourront être tenus ou vérifiés par le client. Il s'engagera à mettre en œuvre une obligation de moyens ;
  3. tout écart par rapport aux conditions générales d'utilisation des moteurs de recherche ciblés. Il s'interdira entre autres d'effectuer des soumissions automatiques de pages ainsi que toutes les pratiques décrétées comme « spamdexing » par les moteurs de recherche (voir par exemple http://www.google.com/webmasters/guidelines.html) ;
  4. d'afficher un contenu qui ne soit pas exactement identique pour le robot ET pour le surfeur (celui-ci ne peut être trompé sur la pertinence des résultats de recherche obtenus) ;
  5. de polluer indûment la base de données des moteurs (par exemple : via des pages doublons, des pages affichant un contenu différent aux surfeurs ou le redirigeant vers une autre page, des pages créées à la volée sans intelligence, etc.) ;
  6. d'optimiser un site sur un nom de domaine qui n'appartient pas au client (à moins que celui-ci le lui demande expressément) ;
  7. de mettre en place des liens vers son site depuis le site du client, de façon visible ou invisible (sauf si cela est stipulé clairement dans le contrat signé entre les deux parties) ;
  8. de placer de la publicité contextuelle en faisant croire que l'affichage de celle-ci est le résultat de ses prestations de référencement naturel ;
  9. de ne pas céder à ses clients les droits de propriété intellectuelle relatifs aux prestations de référencement ;
  10. de s'exonérer de sa responsabilité envers le client au motif d'un recours éventuel à la sous-traitance.

En voici le texte complet

vendredi 19 juin 2009

Des outils pour optimiser votre référencement

Les moteurs de recherche, et particulièrement Google, souhaitent que les webmaster indexent leur site de manière optimale sur leur moteur. Pour cela, ils proposent des outils gratuits pour les aider. Ces outils leur permettront de contrôler et d'améliorer le référencement de leur site.

L'AWT a écrit un article : Référencement: les outils des moteurs de recherche présentant toutes les possibilités en collaboration avec Sylvie de Meeûs, consultant Rentic

jeudi 18 juin 2009

Livre blanc sur le référencement naturel

Gnoztik est un site qui propose un outil gratuit de diagnostic de référencement. Il dispose également d'un blog traitant du référencement naturel.

Un des billets du blog propose de télécharger un guide du référencement naturel. Ce dernier est un document assez complet de plus de 100 pages regroupant toutes les grandes questions que l'on peut se poser sur le référencement naturel :

  • L'indexation
  • Les mots-clés
  • L'optimisation du contenu
  • Le netlinking
  • Le logiciel de Gnoztik

Le but de cet ouvrage est de :

  • rendre votre site accessible aux moteurs de recherche
  • cibler correctement vos mots-clés
  • optimiser vos pages web pour ces mots-clés
  • développer des réseaux de liens efficaces
  • vous informer sur ce qu’il ne faut pas faire et ce qu’il est bon de faire
  • vous familiariser avec des termes comme sitemap, sandbox, longue traîne, duplicate content, url rewriting, link ninja, link baiting, pagerank, trustrank...

lundi 15 juin 2009

Un cadeau de Google aux PME belges

La première page des résultats de Google ne compte que 10 liens. Si votre site ne s'y trouve pas naturellement, il est possible d'y arriver en faisant de la publicité via Google Adwords, une formule publicitaire qui utilise les mots clés des visiteurs pour afficher des liens en rapport avec cette recherche.

Google s'installe en Belgique, cela fait un moment que l'on en parle. La filiale belge du groupe en profite pour lancer une campagne destinée aux PME dont le but est de promouvoir son service de référencement commercial.

En effet, un crédit de 150 euros (sous la forme d'un coupon à activer) sera offert à toutes les PME belges qui ouvriront un nouveau compte Adwords. Ces PME devront utiliser le service d'Adwords. S'ils souhaitent continuer à utiliser ce services, les 150 euros suivants leur seront remboursés.

Pourquoi spécialement en Belgique ? Car notre pays est connu pour son nombre important de PME. Or, celles-ci n'investissent pas dans leur présence en ligne.

L'offre est valable jusqu'au 31.07.2009 et s'adresse uniquement aux nouveaux clients, dont le compte AdWords a été ouvert dans les 14 jours précédents. Dans le cadre des frais de gestion du compte, il faut compter des frais d'activation de 5€ HTVA. (frais de fermeture inclus. Le montant avec la TVA irlandaise s'élève à 6,05€). 55€ seront crédités immédiatement sur votre compte AdWords. Les 100€ additionels vous seront remboursés le 31.08.2009 une fois que vous aurez atteint 100€ d'investissement propres additionels dans votre compte AdWords. Vous pouvez trouver les conditions complètes de cette offre sur www.google.be/adwords/conditions.

vendredi 12 juin 2009

Le moteur de recherche Bing.com est disponible

Depuis le premier juin, dans nos statistiques de visite, nous avons eu la surprise de voir une nouvelle source de trafic : un moteur de recherche nommé Bing.

Ce moteur de recherche, actuellement en version beta, est le dernier né de Microsoft qui semble vouloir en faire son fer de lance puisque l'URL de Live.com pointe à présent vers Bing.com.

L'interface, elle, est simplifiée. Une zone de recherche, des liens (recherche Web, d'images, plus) et c'est tout. Un côté épuré, photo de fond exceptée, qui a un petit look de Google. Les résultats sont présenté par page, de manière classique.

Si vous avez effectué une recherche dont vous souhaitez restreindre les résultats, il suffit de cliquer sur avancé. Vous pouvez adapter votre recherche :

  • Tous ces termes : utilise une opération AND (Mot clé de recherche que vous pouvez utiliser pour obtenir des résultats contenant tous les termes que vous avez spécifiés.) . L'opération ignore la ponctuation et les mots vides (Mots fréquemment utilisés, mais n'ayant aucune valeur intrinsèque pour les moteurs de recherche. Il s'agit, par exemple, des mots un, de et le.) .
  • Un ou plusieurs de ces termes : utilise une opération OR (Mot clé de recherche que vous pouvez utiliser pour obtenir des résultats contenant l'un ou l'autre des termes que vous avez spécifiés.) . L'opération ignore la ponctuation et les mots vides.
  • Cette expression exacte : recherche l'expression exacte, y compris la ponctuation et les mots vides.
  • Aucun de ces termes : utilise une opération NOT (Mot clé de recherche que vous pouvez utiliser pour obtenir des résultats qui ne contiennent pas le terme que vous avez spécifié.) . L'opération NOT regroupe les termes entre parenthèses en tenant compte de la ponctuation et des mots vides.

Si malgré tout, vous n'arrivez pas trouver ce que vous cherchez, tenez à l'œil ces différents éléments :

  • Veillez à respecter l'orthographe des mots que vous recherchez. N'oubliez pas de laisser un espace entre chaque mot de votre recherche.
  • Utilisez des mots qui, selon vous, doivent se trouver dans les sites Web que vous recherchez.
  • Utilisez les mots clés OR (Mot clé de recherche que vous pouvez utiliser pour obtenir des résultats contenant l'un ou l'autre des termes que vous avez spécifiés.) et NOT (Mot clé de recherche que vous pouvez utiliser pour obtenir des résultats qui ne contiennent pas le terme que vous avez spécifié.) pour combiner ou exclure des mots. Par exemple, si vous utilisez arbre NOT à feuilles persistantes, vos résultats porteront sur les arbres, mais pas sur les arbres à feuilles persistantes. Cette fonctionnalité n'est actuellement disponible que dans certains pays et régions.
  • Variez vos termes de recherche. Une expression ou un mot différent donne des résultats différents. Utilisez moins de mots descriptifs ou choisissez des synonymes. Par exemple, essayez alliage au lieu de métal ou acier.
  • Recherchez une expression exacte en plaçant plusieurs mots entre guillemets. Par exemple "petit arbre à feuilles persistantes".
  • Cliquez sur une catégorie pour afficher uniquement les résultats associés à cette catégorie. Une liste de catégories peut apparaître au-dessus des résultats de la recherche.
  • Utilisez les mots clés de réponse instantanée (La fonction de réponses instantanées reconnaît les termes faisant le plus fréquemment l'objet de recherches et fournit des réponses immédiates et utiles à des questions quotidiennes et des sujets d'intérêt courants. Vous trouverez également des réponses à de nombreux types de questions en tapant votre question dans la zone de recherche.) pour centrer votre recherche. Par exemple, pour connaître la définition d'un mot, tapez define, suivi du mot que vous voulez définir. Pour plus d'informations, voir les Trouver des réponses instantanées. Cette fonctionnalité n'est actuellement disponible que dans certains pays et régions.

Source : La rubrique aide de Bling

mercredi 20 mai 2009

Faites du plagiat un avantage pour votre site Internet

Si vous éditez un blog ou un site, il y a fort à parier que vous vous êtes un jour mis en colère en remarquant qu'un webmaster indélicat avait pompé votre contenu textuel ou graphique sans vous demander quoi que ce soit.

Copyscape était déjà une piste permettant de rechercher les plagiats. Il y a maintenant beaucoup plus fort : Tynt Tracer

Après vous être inscrit sur le site (on vous demande de préciser le domaine de votre site, une adresse mail et un mot de passe), le serveur vous retourne un code JavaScript Tynt à copier-coller avant la balise </body> dans les pages que vous souhaitez inspecter. Voici à quoi ressemble ce petit bout de code :

<script type="text/javascript" src="http://tcr.tynt.com/javascripts/Tracer.js?user=bP3YMErd4r3PZQacn9QLxW&s=41"></script>

Une fois ce script copié sur vos pages (et vivent les templates qui évitent de devoir changer 1000 pages individuellement...), Tynt Tracer va se charger de dépister toutes les tentatives de "vol" de contenu. Lorsqu'un copier-coller est effectué, il ajoute alors automatiquement un lien vers la page d'origine, comme ci-dessous :
http://www.easy-concept.com/blog/#ixzz0FwioaWW9&A

Si le visiteur indélicat ne supprime pas ce code, vous voilà doté très simplement d'un nouveau lien vers votre site... Un juste retour des choses. Un clic sur ce lien, permet d'afficher la page qui a servi de source à la copie, page sur laquelle le passage en question est surligné en jaune.

Exemple de surlignage après Copier-Coller de contenu

Depuis un panneau de contrôle, accessible avec le domaine et le mot de passe fournis lors de l'inscription,  vous pouvez suivre l'évolution des copies effectuées depuis votre site Internet ou votre blog.

mercredi 13 mai 2009

A quoi penser pour optimiser votre nom de domaine ?

On ne répétera jamais assez que le nom de domaine entre très clairement en compte dans le référencement d'un site Internet. Voici quelques points à tenir en compte pour mettre toutes les chances de votre côté :

  • Utiliser des mots clés dans votre nom de domaine et pensez à séparer les mots au lieu de les coller. Ainsi, il vaut mieux vente-lunettes-mons.com que lemeilleuropticiendemons.be. Pour séparer les mots-clé, utiliser le trait d'union (-) et non l'underscore (_)
  • Utiliser des mots-clés dans vos dossiers. Ces dossiers doivent suivre le même principe que le nom de domaine. On trouvera alors une arborescence de ce type : vente-lunettes-mons.com/lunettes/diesel/... en classant chaque thème dans des dossiers différents.
  • Acheter un nom court. Deux à trois mots clés maximum dans le nom. Plus les noms sont courts et explicites, plus ils seront efficaces pour le référenecement de votre site. Ceaml permettra également d'éviter de le confondre avec d'autres sites concurrents.
  • Penser au look de son domaine. Une manière simple de se différencier des autres est de proposer une favicon.
  • Utiliser tout le domaine. Il faut donc rediriger le nom de domaine court vente-lunettes-mons.com vers la version longue en www.vente-lunettes-mons.com
  • Renouveler à temps votre nom de domaine. Si votre prestataire le permet, prenez-le pour plusieurs années consécutives.
  • Acheter les variantes du domaine. Que ce soit en alternant les mots et en utilisant toutes les extensions possibles.

A quoi penser pour optimiser votre nom de domaine ?

On ne répétera jamais assez que le nom de domaine entre très clairement en compte dans le référencement d'un site Internet. Voici quelques points à tenir en compte pour mettre toutes les chances de votre côté :

  • Utiliser des mots clés dans votre nom de domaine et pensez à séparer les mots au lieu de les coller. Ainsi, il vaut mieux vente-lunettes-mons.com que lemeilleuropticiendemons.be. Pour séparer les mots-clé, utiliser le trait d'union (-) et non l'underscore (_)
  • Utiliser des mots-clés dans vos dossiers. Ces dossiers doivent suivre le même principe que le nom de domaine. On trouvera alors une arborescence de ce type : vente-lunettes-mons.com/lunettes/diesel/... en classant chaque thème dans des dossiers différents.
  • Acheter un nom court. Deux à trois mots clés maximum dans le nom. Plus les noms sont courts et explicites, plus ils seront efficaces pour le référenecement de votre site. Ceaml permettra également d'éviter de le confondre avec d'autres sites concurrents.
  • Penser au look de son domaine. Une manière simple de se différencier des autres est de proposer une favicon.
  • Utiliser tout le domaine. Il faut donc rediriger le nom de domaine court vente-lunettes-mons.com vers la version longue en www.vente-lunettes-mons.com
  • Renouveler à temps votre nom de domaine. Si votre prestataire le permet, prenez-le pour plusieurs années consécutives.
  • Acheter les variantes du domaine. Que ce soit en alternant les mots et en utilisant toutes les extensions possibles.

lundi 11 mai 2009

10 choses à faire pour améliorer le référencement de vos images

Lorsqu'une société crée un site Internet, il est de plus en plus fréquent que la question du positionnement dans Google soit soulevée. Dans ce cas, nous ne manquons pas de rappeler les bonnes habitudes à prendre pour assurer au site un bon positionnement naturel :

La semaine passée, SearchEngineJournal a édité un billet (en anglais) présentant 10 points à tenir à l'œil lorsqu'on souhaite optimiser le référencement de ses images. En voici une traduction :

  1. Nom de l'image Utilisez des noms explicites pour les noms de vos images et des dossiers de ces images et assurez-vous que vos mots-clés y sont inclus. Si vous utilisez des noms composés, préférez le trait d'union comme séparateur au caractère de soulignement. Par exemple, si vous possédez une image de gadget rouge sur votre site de commerce électronique, il vaut donc mieux de l'appeler Rouge-Gadget-A-Vendre.jpg, plutôt que DSC12345.jpg ou même juste Widget.jpg
  2. L'attribut ALT Employez un attribut descriptif approprié avec des mots-clé. Les attributs ALT sont la source principale de référence pour que les moteurs de recherche comprennent une image
  3. Titre pour l'image Ajoutez un titre descriptif approprié pour des images. Incluez vos mots-clés dans le titre également.
  4. Texte environnant Le texte entourant votre image est important pour l'optimisation de l'image elle-même, car il ajoute de la pertinence à l'image.
  5. L'attribut Long Desc Si l'image est extrêmement importante à vos yeux, vous pouvez employer un attribut Long Desc pour expliquer l'image dans les détails de manière plus précise que l’attribut ALT
  6. Balise de titre Vous pouvez insérer votre image dans une balise de titre (H1 à H6 en commençant de préférence avec H2). Ajoutez une petite légende avec votre mot-clé.
  7. Obtenez des liens Essayez d'obtenir des liens pointant directement sur l'image elle-même. Assurez-vous que vous employez des mots-clé importants ou quelques variations de ceux-ci pour ces liens.
  8. Le lien externes Si possible, utilisez cette image pour effectuer un lien vers une autre page ayant un rapport direct avec le nom de l'image. Pour reprendre l'exemple du gadget rouge ci-dessus, vous pouvez employer cette image pour effectuer un lien vers à une page décrivant ce gadget.
  9. Recherche d'image améliorée Cette recherche est spécifique à Google. Ouvrez une session de votre Webmaster Tools de Google et activez la fonctionnalité de recherche d'image améliorée.
  10. Rang de la page La recherche d'image de Google prend en compte le ranking de la page où se trouve l'image. Préférez donc une page déjà indexée dans Google, avec un ranking pas trop faible.

10 choses à faire pour améliorer le référencement de vos images

Lorsqu'une société crée un site Internet, il est de plus en plus fréquent que la question du positionnement dans Google soit soulevée. Dans ce cas, nous ne manquons pas de rappeler les bonnes habitudes à prendre pour assurer au site un bon positionnement naturel :

La semaine passée, SearchEngineJournal a édité un billet (en anglais) présentant 10 points à tenir à l'œil lorsqu'on souhaite optimiser le référencement de ses images. En voici une traduction :

  1. Nom de l'image Utilisez des noms explicites pour les noms de vos images et des dossiers de ces images et assurez-vous que vos mots-clés y sont inclus. Si vous utilisez des noms composés, préférez le trait d'union comme séparateur au caractère de soulignement. Par exemple, si vous possédez une image de gadget rouge sur votre site de commerce électronique, il vaut donc mieux de l'appeler Rouge-Gadget-A-Vendre.jpg, plutôt que DSC12345.jpg ou même juste Widget.jpg
  2. L'attribut ALT Employez un attribut descriptif approprié avec des mots-clé. Les attributs ALT sont la source principale de référence pour que les moteurs de recherche comprennent une image
  3. Titre pour l'image Ajoutez un titre descriptif approprié pour des images. Incluez vos mots-clés dans le titre également.
  4. Texte environnant Le texte entourant votre image est important pour l'optimisation de l'image elle-même, car il ajoute de la pertinence à l'image.
  5. L'attribut Long Desc Si l'image est extrêmement importante à vos yeux, vous pouvez employer un attribut Long Desc pour expliquer l'image dans les détails de manière plus précise que l’attribut ALT
  6. Balise de titre Vous pouvez insérer votre image dans une balise de titre (H1 à H6 en commençant de préférence avec H2). Ajoutez une petite légende avec votre mot-clé.
  7. Obtenez des liens Essayez d'obtenir des liens pointant directement sur l'image elle-même. Assurez-vous que vous employez des mots-clé importants ou quelques variations de ceux-ci pour ces liens.
  8. Le lien externes Si possible, utilisez cette image pour effectuer un lien vers une autre page ayant un rapport direct avec le nom de l'image. Pour reprendre l'exemple du gadget rouge ci-dessus, vous pouvez employer cette image pour effectuer un lien vers à une page décrivant ce gadget.
  9. Recherche d'image améliorée Cette recherche est spécifique à Google. Ouvrez une session de votre Webmaster Tools de Google et activez la fonctionnalité de recherche d'image améliorée.
  10. Rang de la page La recherche d'image de Google prend en compte le ranking de la page où se trouve l'image. Préférez donc une page déjà indexée dans Google, avec un ranking pas trop faible.

mardi 28 avril 2009

Une belle aide au démarrage de votre société

La crise frappe durement certains secteurs d'activité. Nombreuses sont les personnes qui se voient privées de leur travail et qui ne désirent pas pour autant vivre des allocations de chômage et souhaitent se lancer dans une activité d'indépendant.

Seul problème à ces intentions louables : les finances nécessaires pour démarrer une telle activité ! C'est en réponse à ce besoin que nous avons lancé un nouveau package que nous avons nommé Easy Start Up : A elles de trouver un créneau où se faire une place, à nous de leur fournir une image et de les faire connaître.

Que contient Easy-StartUp ?

  • Un nom de domaine (nous nous chargeons de vérifier sa disponibilité et de le réserver à leur nom en .com, .eu, .be ou .fr)
  • Un hébergement
  • De une à trois adresses email liées au nom de domaine choisi (Par exemple : monnom@masociete.com)
  • Un logo professionnel pour leur société (au format vectoriel et donc utilisable sur tout type de support)
  • Un site Internet géré par un CMS assurant une totale autonomie de gestion. Ce dernier comprend :
    • un graphisme attrayant aux couleurs de l'entreprise (respect de la charte graphique), à choisir dans notre panel d'interfaces.
    • l'insertion graphique du logo
    • un CMS (système de gestion de contenu pour le gérer au quotidien - textes, images, photos, menus, pages)
    • la création de tous les menus et pages (jusque 8 par nos soins mais il reste possible d'en ajouter sans limite)
    • l'intégration du contenu de 8 pages (contenu fourni au format électronique)
    • l'optimisation du code du site Internet afin que ce dernier bénéficie d'un excellent positionnement naturel sur Google
  • un didacticiel expliquant comment gérer le site Internet simplement
  • La création et la fourniture de 500 cartes de visite sur papier 250g au format 85 x 55 mm

Le tout pour un prix hyper compétitif de 1495 € hors TVA !

Toutes les explications concernant ce nouveau produit se trouvent sur le site Internet qui est sorti hier : www.easy-startup.be. N'hésitez pas à nous contacter si vous souhaitez de plus amples informations.

mercredi 22 avril 2009

La meilleure place dans les résultats commerciaux de Google

Il y a un peu plus d'un an, je vous expliquais en quoi consistait l'eye tracking et ce que cette méthode permettait de déduire.

Dans sa lettre d'information d'avril 2009, Miratech, une société spécialisée dans cette technique, a démontré que la deuxième annonce commerciale de Google était plus regardée que la première. Cette démonstration fait suite à celle de février 2009 où ils expliquaient le principe de lecture d'une page de résultats de Google.

Les résultats corroborent certains éléments bien connus mais fournis également d'autres détails assez intéressants pour être cités :

  • Les liens sponsorisés ne sont pas vus suivant leur ordre d’affichage sur la page : le deuxième lien sponsorisé est plus regardé que le premier.
  • Les résultats naturels sont regardés dans l’ordre d’affichage.
  • Le premier résultat naturel est regardé 1,6 fois plus que le second.
  • Les liens sponsorisés de droite ne sont pas vus suivant leur classement sur la page : le sixième lien sponsorisé est plus regardé que le quatrième ou le cinquième.
  • Les liens commerciaux du haut sont regardés 2,14 fois plus que les liens commerciaux de droite.
  • La présence d’images modifie la façon de lire les résultats : celui situé juste au dessus des images est moins regardé.

La meilleure place dans les résultats commerciaux de Google

Il y a un peu plus d'un an, je vous expliquais en quoi consistait l'eye tracking et ce que cette méthode permettait de déduire.

Dans sa lettre d'information d'avril 2009, Miratech, une société spécialisée dans cette technique, a démontré que la deuxième annonce commerciale de Google était plus regardée que la première. Cette démonstration fait suite à celle de février 2009 où ils expliquaient le principe de lecture d'une page de résultats de Google.

Les résultats corroborent certains éléments bien connus mais fournis également d'autres détails assez intéressants pour être cités :

  • Les liens sponsorisés ne sont pas vus suivant leur ordre d’affichage sur la page : le deuxième lien sponsorisé est plus regardé que le premier.
  • Les résultats naturels sont regardés dans l’ordre d’affichage.
  • Le premier résultat naturel est regardé 1,6 fois plus que le second.
  • Les liens sponsorisés de droite ne sont pas vus suivant leur classement sur la page : le sixième lien sponsorisé est plus regardé que le quatrième ou le cinquième.
  • Les liens commerciaux du haut sont regardés 2,14 fois plus que les liens commerciaux de droite.
  • La présence d’images modifie la façon de lire les résultats : celui situé juste au dessus des images est moins regardé.

mardi 17 février 2009

Audit gratuit de votre site

SEORush est un outil anglophone qui vous permettra d'auditer votre site Internet de manière incomplète, certes, mais totalement gratuite. Seules quelques secondes suffisent pour voir s'afficher le résultat, présenté en grandes sections.

  • detailed site information : nom de domaine, whois record, date de création du domaine, temps de chargement de la page, pays d'origine du site et description puissée dans les balises meta agrémenté d'une vignette du site
  • links and directories : nombre de pages indexées dans Google, dans Yahoo!, dans Live Web Search et vérification de l'indexation dans The Open Directory Dmoz.org
  • validation, meta, pagerank and traffic : longueur du titre de la page d'accueil, vérification de la validité des meta description, analyse du trafic, nombre d'erreur en W3C, Google Pagerank
  • site ranks : rang Technorati, QuantCast, Alexa et Compete.com
  • social resources : liens vers des blogs, depuis Digg.com, favoris de Delicious et Furl, liens de Reddit.com

Chaque section est suivie de remarques et conseils pour améliorer le positionnement. Cet outil servira de base pour une analyse plus approfondie.

vendredi 30 janvier 2009

Soumettre un site à Google

Lorsque nous avons terminé de développer un site, nous le mettons en ligne et nous procédons à son référencement. Autrement dit, nous signalons sa présence aux principaux moteurs de recherche afin qu'ils indexent le nouveau site dans leur base de données.

Pour ce faire :

  • nous insérons un vignette sur notre page d'accueil afin d'établir le premier lien vers le site
  • Nous insérons un fichier robots.txt pour dire aux moteurs de recherche l'attitude à adopter quant au contenu du site,
  • Nous uploadons un plan sitemap afin d'aider Google et Yahoo! à trouver le contenu complet du site

Ensuite, il ne reste plus qu'à suivre l'évolution de l'indexation sur Google Webmaster.

Cette technique, la meilleure à mon sens, repose sur le principe de base de crawler qui passent d'un site à l'autre en suivant les liens. Mais il peut arriver qu'un tout nouveau site ne dispose d'aucun lien pointant vers lui. Dans ce cas, Google est évidemment incapable de le trouver. Il faut alors passer par une procédure d'enregistrement.

A cette fin, Google propose un formulaire de soumission de sites : http://www.google.com/intl/us/addurl.html. Il est à noter, cependant, que proposer son site à Google ne garantit absolument pas que celui-ci sera ajouté à l’index de Google.

lundi 12 janvier 2009

Faut-il proposer un sitemap aux moteurs de recherche ?

Chenry, un membre de SEOMoz, a vérifié l'importance de la mise en ligne d’un Sitemap pour l'indexation d'un nouveau site. Il a publié les résultats de ses test qui sont éloquents.

  • Sans Sitemap, Google a indexé le nouveau post de son blog en 1375 minutes tandis que Yahoo a pris 1773 minutes.
  • Avec un Sitemap, Google a indexé la page au bout de 15 minutes et Yahoo en 4 heures.

Cela montre bien toute la puissance du Sitemap qui permet d’indexer rapidement les pages d'un site.

lundi 15 décembre 2008

45 astuces de référencement en video

Maxime Grandchamp a donné, en septembre 2008, une conférence devant plus de 1000 personnes pour présenter 45 astuces de référencement. Je n'étais pas présent lors de cet événement. Heureusement, la conférence a été enregistrée et est désormais disponible, gratuitement et en intégralité, sur http://www.astuces-referencement.com/

lundi 8 décembre 2008

Tout ce que vous avez toujours voulu savoir sur Google, sans jamais oser le demander

S'inspirant du titre du film de Woody Allen, FaberNovel, une société dédiée à l’innovation et sa mise en pratique, a mis en ligne une présentation intitulée "[Tout ce que vous avez toujours voulu savoir sur Google, sans jamais oser le demander|http://www.fabernovel.com/sites/default/files/Google_14Q_fr.pdf|fr]".

Les thèmes abordés sont les suivants :

  1. Pourquoi Google ne connaîtra pas la crise
  2. Comment Google va changer le monde du mobile ?
  3. Pourquoi YouTube n’est pas un portail ?
  4. Pourquoi Microsoft craint Google ?
  5. Comment Google souhaite contrer Facebook ?
  6. Pourquoi Google achète des satellites ?
  7. Comment Google achète du trafic ?
  8. Pourquoi Google a-t-il acheté DoubleClick ?
  9. Pourquoi Google ne monétise pas tous ses services ?
  10. Comment Google exploite le travail des développeurs Open Source ?
  11. Comment Google a investi le marché publicitaire offline ?
  12. Pourquoi Google nous vole nos voix ?
  13. Pourquoi le PageRank n’est pas un véritable avantage concurrentiel ?
  14. Comment Google transforme la publicité en information et en performance ?

Cette étude est publiée sous licence Creative Commons par FaberNovel, ce qui lui perment de s’inscrire dans une démarche de partage. Le choix de cette licence permettra à tous les experts et analystes de reprendre, d’améliorer, de compléter et de partager ce document.
Une copie de cette licence Paternité - Pas d'Utilisation Commerciale - Partage des Conditions Initiales à l'Identique 2.0 France est disponible sur http://creativecommons.org/licenses/by-nc-sa/2.0/fr/

vendredi 28 novembre 2008

Le guide du référencement de Google en français

Si vous possédez un site, en gérez un ou devez en assurer la promotion, vous avez certainement été confronté à cette difficulté majeure : comment le placer en ordre utile dans Google pour les mots clés qui semblent essentiels à votre activité ?

Et lorsque vous semblez sur la bonne voie, Google modifie son algorithme et vous passez de la première page de résultats à la vingt-cinquième...

Alors, que faire ? Que faut-il éviter ? Que faut-il, par contre, faire absolument ?

Très récemment, Google a mis en ligne le Google's SEO Starter Guide, un guide PDF d'initiation au référencement. Malheureusement, ce genre de littérature anglaise ne facilite pas la lecture des utilisateurs de la langue de Molière.

Sur le blog Ramenos, Arnaud Mangasaryan en propose une traduction personnelle. Vous pouvez la télécharger gracieusement et en puiser toute la substantifique moelle. Merci à lui. Chaque page propose une explication générale du point abordé, quelques conseils et de procédures à éviter. En voici la liste :

  • Le titre
  • La Meta Description
  • La structure des URLs
  • La navigation du site
  • L'offre des contenus et services
  • Le lien texte
  • Les balises d&#700;en-tête
  • L'utilisation des images
  • Le fichier robots.txt
  • L'attribut rel="nofollow"
  • Promouvoir son site web

jeudi 30 octobre 2008

Géolocalisation de votre site Internet

Google Webmaster Tools, un outil destiné à gérer le référencement de son site sur Google, propose dans la section "Outils", de définir une zone géographique précise pour votre site. Ainsi, si votre site cible les internautes d'une zone géographique particulière, vous pouvez l'associer à cette zone. Ces informations aide Google à déterminer les modalités d'affichage de votre site dans les résultats de recherche propres à une région.

Ce service n'est pas anodin, car, jusqu’à présent, seuls l’adresse IP du serveur et l’extension du nom de domaine en précisait le pays. C'est ainsi, par exemple, que notre site, www.easy-concept.com (l'extension ne permet pas de "deviner" le pays, comme l'aurait fait un .be) était localisé comme un site français puisqu'il était hébergé chez OVH, à Paris et donc avec une IP française.

Depuis l'utilisation de ce service, nous avons précisé sa "belgitude" et nous apparaissons bien dans les pages "Belgique" lors d'une recherche.

mercredi 15 octobre 2008

Positionnement de votre site sur des mots clés donnés

Je vous en avais déjà parlé dans un billet précédent. Rank Checker est un module pour Firefox, développé SeoBook qui permet de connaitre le positionnement de votre site sur certains mots clés (définis par vous) dans l’index du moteur de recherche Google.

Une nouvelle version vient de voir le jour qui ajoute des fonctions intéressantes, est un peu plus ergonomique et permet d’étudier le positionnement de son site sur la version de Google de son choix.

jeudi 25 septembre 2008

Google Insights for Search

Google Insights for Search est un outil anglophone très pratique qui permet la comparaison de mots-clés selon des zones géographiques ciblées et selon des intervalles de dates.

Plusieurs filtres sont possibles :

  • Le filtre de dates (de 2004 à aujourd'hui)
  • Le filtre géographique qui permet d’afficher des requêtes pour le monde entier, un pays voire une région spécifique,
  • Le filtre des catégories qui permet de trouver les mots clés les plus tapés

Les résultats sont affichés sont forme de courbe pour l'évolution dans le temps, de carte pour les pays ou les régions les plus importantes et de barres pour les mots clés.

Cet outil s’adresse à tous les publics, et principalement les internautes blogueurs, annonceurs, ou responsables marketing et publicités.

mercredi 24 septembre 2008

Référencement sur Google : le Guide Complet

Un livre traitant du référencement sur Google vient de sortir en librairie: Le Guide Complet par Gilles Grégoire chez Micro Application (Prix public : environ 15 euros)

En voici le sommaire :

  • Comprendre les fondamentaux
  • Concevoir la stratégie
  • Optimiser le site
  • Contourner les obstacles techniques
  • Positionner le site en top 20
  • Automatiser le référencement avec PHP et MySQL
  • Mesurer le retour sur investissement
  • Prévoir Google pour pérenniser ses investissements
  • Annexes : glossaire, Webographie, les points clefs à retenir pour référencer son site de manière efficace…

Détails sur le produit

  • Broché: 304 pages
  • Editeur : MICRO APPLICATI (15 septembre 2008)
  • Collection : GUIDE COMPLET
  • Langue : Français
  • ISBN-10: 2300013207
  • ISBN-13: 978-2300013201

lundi 30 juin 2008

Kgen : générateur de mots clés

KGen, une extension de Firefox, est un générateur de mots-clés qui permet :

  • d'analyser les mots contenus dans une page
  • de déterminer les mots clés qui ont le plus d'importance pour les moteurs de recherche
  • d'optimiser votre référencement en réécrivant efficacecement vos pages
  • d'espionner vos concurrents afin de déterminer leur stratégie de référencement.

Cette extension est distribuée gratuitement mais vous pouvez remercier leur créateur en créant un lien vers leur page. C'est chose faite !

mardi 17 juin 2008

Inscrire son site dans les annuaires

Depuis le début de ce blog, je ne cesse de vous donner des conseils et des pistes de travail pour optimiser votre positionnement dans les moteurs de recherche, terme générique que beaucoup traduisent immédiatement par "Google", ce qui est loin d'être idiot lorsqu'on voit la part énorme de marché de ce dernier...

Je vous avais également conseillé de ne pas vous limiter aux seuls moteurs de recherche et de référencer votre site dans des annuaires. D'accord, ces derniers ne sont pas les pourvoyeurs de visiteurs les plus efficaces, mais ils offrent des avantages indéniables qu'il serait absurde de mépriser... En effet, les annuaires de recherche ont l'avantage de proposer des liens en dur...Ils seront toujours accessibles dans le temps. Qui plus est, ils sont trouvés par les moteurs de recherche et seront alors considérés comme autant de backlinck (URL ayant mis un lien pointant vers votre site) ce qui est excellent pour votre positionnement.

Par contre, pour la raison évoquée ci-dessus, fuyez les annuaires exigeant un lien en retour (Le seul bénéficiaire de cette opération sera sans doute l'annuaire) et ceux proposant un système de redirection (qui n'a aucun impact sur votre positionnement)

Sachant que ce travail est long et fastidieux, voici quelques astuces qui vous permettront de rentabiliser votre travail. Je les utilise chaque fois que je dois enregistrer un site... autant vous en faire profiter :

  • Pour dénicher vos annuaires (votre travail ne devant pas obligatoirement se dérouler sur une seule journée), tâchez d'employer les annuaires d'annuaires qui vous communiqueront les bonnes adresses.
  • Ne soumettez votre site que sur des annuaires dont le thème est en corrélation avec votre secteur d'activité.
  • Tous les annuaires demandent de remplir un formulaire dans lequel vous devrez encoder grosso-modo les même éléments (titre du site, URL, description courte, description longue, mots clés...). Rédigez donc un fichier qui contiendra ces éléments afin de ne devoir faire que des copier-coller au fur et à mesure de vos inscriptions.
  • Si vous rencontrez un annuaire qui demande de compléter un élément complémentaire, n'oubliez pas de l'ajouter à votre fichier initial afin de le rendre le plus exhaustif possible.
  • Notez également sur votre fichier la liste des annuaires que vous avez consultés ainsi que leur URL. Cela vous évitera de soumettre deux fois votre site au même endroit et de gagner du temps si vous deviez soumettre un second site.

vendredi 13 juin 2008

Engagement déontologique en matière de référencement

Le référencement de site Internet est un domaine dans lequel le pire côtoie le meilleur. Certaines sociétés promettent monts et merveilles à leurs client et jouent à l'apprenti-sorcier. Elles utilisent alors des techniques abusives censées booster le référencement d'un site Internet sur les moteurs de recherche. Le problème c'est que, lorsque les moteurs s'aperçoivent de la supercherie, la réponse ne se fait pas attendre : ils sanctionnent le site en supprimant toute référence vers celui-ci. On dit alors que le site est black-listé.

Chaperonnée par l'Agence Wallonne des Télécommunications, plusieurs entreprises (dont Easy-Concept) se sont réunies pour tenter de proposer un engagement déontologique en matière de référencement de sites Web dont les objectifs seraient de bannir les mauvaises pratiques et prôner une communication transparente avec leurs clients.

Voici les pratiques qui doivent être bannies. Le fournisseur de services...

  1. ne peut employer des pratiques portant atteinte aux droits de la personne ou de la propriété intellectuelle, ou nuisant au référencement de concurrents;
  2. ne peut promettre (garantir) des résultats de positionnement limités à une requête et un moteur, et plus généralement de promettre des résultats qui ne pourront être tenus ou vérifiés par le client. Il s'engagera à mettre en œuvre une obligation de moyens;
  3. ne peut s'écarter des conditions générales d'utilisation des moteurs de recherche ciblés. Il s'interdira entre autres d'effectuer des soumissions automatiques de pages ainsi que toutes les pratiques décrétées comme "spamdexing" par les moteurs de recherche;
  4. ne peut afficher un contenu qui ne soit pas exactement identique pour le robot ET pour le surfeur (celui-ci ne peut être trompé sur la pertinence des résultats de recherche obtenus);
  5. ne peut polluer indûment la base de données des moteurs (par exemple: via des pages doublons, des pages affichant un contenu différent aux surfeurs ou le redirigeant vers une autre page, des pages créées à la volée sans intelligence, etc.);
  6. ne peut optimiser un site sur un nom de domaine qui n'appartient pas au client (à moins que celui-ci le lui demande expressément);
  7. ne peut mettre en place des liens vers son site depuis le site du client, de façon visible ou invisible (sauf si cela est stipulé clairement dans le contrat signé entre les deux parties);
  8. ne peut placer de la publicité contextuelle en faisant croire que l'affichage de celle-ci est le résultat de ses prestations de référencement naturel;
  9. doit céder à ses clients les droits de propriété intellectuelle relatifs aux prestations de référencement;
  10. ne peut s'exonérer de sa responsabilité envers le client au motif d'un recours éventuel à la sous-traitance.

Ces différents éléments ont été réunis dans une charte déontologique annexe à la charte "eTIC", qui peut être signée par toute entreprise effectuant des missions de référencement vers des PME situées en région wallonne.

jeudi 10 avril 2008

Rank Checker analyse le positionnement de votre site

Rank Checker est un module de Firefox qui analyse le positionnement de n'importe quel site, pour des mots clés donnés, dans divers moteurs de recherche, dont n'importe quelle version de Google.

Dès que le module est installé et que vous avez redémarré Firefox, vous disposez d'un lien Rank Checker dans la barre inférieure de votre navigateur. En cliquant dessus avec le bouton gauche de la souris, vous ouvrez le panneau de commande. Avec le bouton droit, vous accédez au panneau de configuration.

Je recommande cet outil dans le sens ou il peut représenter une bonne alternative gratuite à Yooda (pour la fonction positionnement uniquement) mais aussi parce qu’il ne ralentit absolument pas le lancement de Firefox (contrairement à certains plugins ultra gourmands en ressources).

L’affichage tabulaire permet d'accéder aux informations suivantes :

  • Domaine recherché.
  • Mots clés recherchés
  • Positionnement dans les différents moteurs sélectionnés (- signifie votre site n’apparaît pas suffisamment haut dans les résultats).
  • Url de la page trouvée

Si une recherche vous intéresse particulièrement, vous aurez la possibilité de la sauvegarder en local et de l'exporter en csv

vendredi 7 mars 2008

La toute puissance de Google

Il n'y a aucun doute possible : dans nos pays Google est LE maître incontesté des moteurs de recherche. Si vous n'y êtes pas... on ne vous trouve pas.

Certains sites l'ont bien compris. Leur webmaster a donc répondu aux attentes de Google et propose un site avec plein de liens entrant et sortant, un code propre, des pages nombreuses et régulièrement mises à jour... Bref, tout ce qui lui plait. Le problème, c'est qu'on n'est pas toujours maître de ce qui s'écrit sur la partie blog de son site, que ce soit dans les commentaires ou dans les trackbacks.

C'est la mésaventure qu'a connu le blog Imazine qui s'est fait éjecter de Google sans autre forme de procès. En cause ? Une faiblesse de Wordpress 2.2 qui a permis à un bot malveillant de poster 2 séries liens cachés sur 2 billets. Malgré une suppression manuelle, le problème s'est représenté. La seule solution aurait été d’upgrader Wordpress vers la Version 3.3 mais le responsable du blog n'en a pas eu le temps.

Pas de chance ! Ce délai a suffit à Google qui a éjecté le blog de son index. Seul avertissement : un mail précisant qu'Imazine est exclus et qu'il ne sera réindexé qu'à partir du moment où les manquements aux règles auraient disparus. Résultat des courses : le site et le blog n'est plus trouvé dans les résultats. Le nombre de visites s'en fait immédiatement ressentir !

Depuis, le blog est revenu, mais l'auteur a eu chaud ! Les remarques et constats qu'il fait à la suite de cette mésaventure sont très intéressants. Intéressant également, cet article des Gourous du Net qui nous explique que notre site est en péril lorsque la seule source de trafic est générée par les moteurs de recherche.

vendredi 22 février 2008

Pourquoi mon site n'est-il pas repris dans Google ?

Dernièrement, nous avons été consulté par un prospect qui nous a posé cette question existentielle... Si cette question a l'air assez simple, la réponse, par contre, ne l'est pas autant, les possibilités de réponses étant multiples.

Tout d'abord, je conseille de faire un tour sur le site de Google qui donne lui-même des pistes dont voici les principaux éléments :

  1. Vérifiez la présence de votre site dans l'index Google. Ce n'est pas parce que vous ne retrouvez pas votre site qu'il a disparu de Google. Il se peut que vous n'encodiez pas les bons mots clés ou que son positionnement ait été diminué, le faisant apparaître beaucoup plus loin dans la liste des résultats.
  2. Assurez-vous que Google peut détecter et explorer votre site. Pour visiter votre site, Google utilise les liens de votre site. Soyez donc toujours attentif à lui proposer un système de navigation accessible et facilitez-lui la tâche : ajouter un sitemap sur votre site ainsi qu'un fichier robots.txt qui n'empêche pas Google d'accéder aux pages importantes de votre site. Vérifiez que les balises META ne bloquent pas non plus le robot du moteur de recherche.
  3. Avez-vous remanié votre site en changeant les adresses de certaines pages qui étaient bien référencées ? Pour éviter de perdre le bon positionnement de ces pages, utilisez des redirections 301 ("RedirectPermanent") dans votre fichier .htaccess pour rediriger efficacement les internautes, Googlebot et les autres robots d'exploration.
  4. Assurez-vous que Google peut indexer votre site. Sachez que Google est axé sur le texte. Cela signifie qu'il n'est pas en mesure de déchiffrer le texte inclus dans des images, dans la majorité des fichiers Flash, sur des pages masquées par du JavaScript ou qui requièrent une connexion.
  5. Assurez-vous que le contenu de votre site est utile et pertinent.

A la suite de ces réponses proposées par Google, je pourrais ajouter également :

  1. Votre hébergement n'est-il pas trop lent ? Si Google a l'impression que l'accès aux pages lui est rendu difficile car l'accès au réseau le bloque, il va finir par laisser votre site de côté.
  2. Si vous avez utilisé des techniques frauduleuses et que Google s'en est rendu compte, vous avez peut-être été blacklisté. Autrement dit, Google vous a éjecté de son index. Il ne vous reste plus qu'à corriger le tir, prévenir Google que vous avez fait amende honorable... et attendre soin bon vouloir.
  3. Vérifiez que votre menu contienne le moins possible (l'idéal étant de ne pas en avoir du tout...) de liens cassé.
  4. Les mots clés principaux de votre contenu sont truffés de faute d'orthographe. Google ne les trouvera donc pas lors d'une requête rédigée correctement.
  5. Vos mots clés sont trop "dilués" et mélangés à d'autres sans intérêt réel pour l'indexation du site
  6. Vous proposez trop de liens sortants
  7. Vous avez sur votre site trop de liens sponsorisés ou, inversement, ce ne sont que des liens sponsorisés qui pointent vers le vôtre.
  8. Vous avez effectué des liens sur des images d'une taille trop petite. Google pense que vous essayez de le tromper. Il en va de même pour du texte répété de manière ostensible, ou écrit dans la même couleur que le fond de page.
  9. Vous avez placé le même contenu a plusieurs endroit de votre site.
  10. Votre site est développé en frame
  11. Votre site est un site dynamique et vous n'utilisez pas l'URL rewriting pour faciliter l'accès aux pages dynamiques. Dans le même genre d'idée, j'ajouterais également qu'insérer des ID de session dans le lien semble une très mauvaise idée.

mercredi 6 février 2008

Référencement : la revanche du contenu

Dixxit a publié un livre blanc nommé "Référencement : la revanche du contenu" sur le rôle décisif du contenu dans le référencement. Ce livre est disponible en libre téléchargement après inscription. Une fois celle-ci effectuée, un E-Mail contenant un lien de téléchargement vous sera transmis. Riche de 30 pages, cet ouvrage alimente la réflexion sur les nouvelles voies de visibilité sur le Web.

Il est bon de savoir, en effet, que les principaux moteurs de recherche placent désormais la qualité du contenu d'un site au cœur de son référencement naturel, mais aussi payant - une évolution qui modifie en profondeur les stratégies de liens sponsorisés.

Face à ces enjeux, les actions de référencement traditionnelles, basées sur une approche par mots-clés et l'optimisation des contenus existants, montrent très vite leurs limites. La solution ? Mettre en œuvre une approche éditoriale globale, visant à exploiter un univers sémantique riche et régulièrement actualisé.

vendredi 18 janvier 2008

Sites avec un Pagerank élevé

Le PageRank (PR pour les intimes) est une technologie mise au point par Google. Le moteur de recherche s'en sert pour évaluer la popularité de certaines pages d'un site Web, comme il l'explique très clairement. Il se présente sous la forme d'une note allant graduellement de 0 à 10. Plus il est élevé, plus la page est censée être populaire. Il va de soi que le PR n'est pas la seule valeur utilisée par Google pour classer les sites. Webrankinfo propose d'ailleurs une page très intéressante à ce propos..

Pour connaître le PageRank d'une page, vous pouvez installer la barre d'outils Google dans votre navigateur. Vous verrez alors s'afficher graphiquement le PR de chaque page que vous visitez. Il est également possible d'utiliser certains outils en ligne qui se chargent de faire ce calcul, comme pagerank.fr, par exemple.

Sur son site, un internaute s'amuse à maintenir à jour une liste de sites qui possèdent un PageRank de 9 et de 10. A voir le nombre d'élus, les portes du paradis ne sont pas accessibles à tout le monde !

jeudi 20 décembre 2007

Les balises META

Bien souvent, des visiteurs de notre site ou des prospects nous posent la question : que puis-je faire pour améliorer la position de mon site dans les moteurs de recherche (sou-entendu : Google) ?

La question, simple en soi, n'entraîne pas une réponse qui le soit autant.

La première règle est indéniablement d'avoir un site proposant un contenu le plus large et le plus original possible : il faut intéresser le visiteur et le "forcer" à revenir sur le site ! Si vous proposez beaucoup d'informations pertinentes, votre site comptera alors beaucoup de pages. Et un gros site aura bien plus de chances d'être bien classé qu'un petit, le contenu proposé contenant plus de mots-clés susceptibles de correspondre avec une requête soumise à un moteur de recherche.

Une autre chose à laquelle il convient d'être attentif, ce sont les balises META. Elles sont placées dans l'entête du document HTML , entre les balises <head> et </head>, et renseignent les moteurs de recherche sur la nature et le contenu de la page.

Voici donc une liste des principales balises META et de leur utilité :

  • la balise HTTP-EQUIV désigne le codage de caratère de votre page pour permettre, par exemple, l'emploi des caractères accentués :
    <META HTTP-EQUIV="content-type" CONTENT="text/html; charset=iso-8859-1">
  • la balise META TITLE permet de préciser le titre de votre page :
    <TITLE>Votre titre ici</TITLE>
  • la balise META DESCRIPTION donne une brève description (entre 20 et 50 mots) du contenu de la page :
    <META NAME="Description" CONTENT="La description de votre page">
  • la balise META KEYWORDS précise les mots clés importants (1000 caractères maximum) de la page séparé par des virgules :
    <META NAME="keywords" CONTENT="mot1, mot ou expression 2, mot 3">
  • la balise META ROBOTS autorise ou non le robot à indexer la page, à suivre ou non les liens et à indexer toutes les pages du site :
    <META NAME="ROBOTS" CONTENT="INDEX, FOLLOW, ALL">
  • la balise META REVIST-AFTER demande au robot de revenir indexer sur le site après le délai précisé :
    <META NAME="REVISIT-AFTER" CONTENT="30days">
  • la balise META LANGUAGE précise la langue utilisée dans contenu de la page :
    <META HTTP-EQUIV="Content-Language" CONTENT="fr">
  • la Balise META PRAGMA impose au navigateur de recharger la page à chaque nouvelle visite au lieu d'utiliser le cache :
    <META http-equiv="PRAGMA" content="no-cache">
  • la balise META DISTRIBUTION spécifie si votre site présente un intérêt pour un public restreint ou un intérêt général :
    <META NAME="distribution" CONTENT="global">
  • la balise META EXPIRES précise une date de fin de validité de la page :
    <META HTTP-EQUIV="Expires" content="20071225">
  • la balise META CLASSIFICATION autorise le moteur de recherche à classer le site dans une rubrique particulière :
    <META NAME= "Classification" CONTENT= "rubrique 1, rubrique 2">
  • la balise META IDENTIFIER-URL indique l'URL de base de votre site :
    <META NAME="Identifier-URL" CONTENT="http://www.easy-concept.com/">
  • la balise META GENERATOR indique le nom du logiciel utilisé pour générer la page :
    <META NAME="Generator" CONTENT="logiciel">
  • la balise META EMAIL donne l'adresse à laquelle un visiteur peut prévenir le gestionnaire du site :
    <META NAME="email" content="webmaster@easy-concept.com">
  • la balise META AUTHOR précise le nom de l'auteur du site :
    <META NAME="Author" CONTENT="nom du créateur du site">

mercredi 7 novembre 2007

Google facilite la géolocalisation des sites

Pour situer un site géographiquement, Google utilise les moyens mis à sa disposition : l'extension du nom de domaine (le TLD) et l'adresse IP du serveur sur lequel les fichiers du site sont enregistrés.

Les sites avec des extensions géographiques (.be, .lu, .fr par exemple) sont automatiquement classés comme dépendant de ce pays. Lorsque cette extension n'est pas explicite (.com, .net, .org....), c'est l'adresse IP du serveur qui est alors utilisée. Ainsi, si le serveur se situe à Paris, Google en déduit que le site est français.

Cela peut sembler logique, mais n'est pas toujours correct. Notre site, www.easy-concept.com, présente notre société située géographiquement en Belgique. Or, notre hébergeur qui n'est autre qu'OVH, place ses serveurs à Paris. Nous sommes donc absents des résultats lorsque le visiteur demande d'afficher les pages belges uniquement... et nous apparaissons dans les pages exclusivement françaises.

Conscient de ce problème, certains hébergeurs proposent de géolocaliser les serveurs de manière à ce que l'adresse IP coïncide avec le pays demandé. Mais tous ne le proposent pas, et toutes les IP ne sont pas "offertes".

Désormais, Google apporte sa propre solution : via son interface à destination des webmasters il est possible de situer votre site géographiquement. La précision est assez étonnante, puisque vous pouvez préciser un pays, une ville, et même une adresse postale. Pour ce faire, rendez-vous simplement dans Webmaster Tools :

  1. Depuis le tableau de bord, choisissez le site que vous souhaitez administrer.
  2. Dans le menu de gauche, cliquez sur "Outils"
  3. 6 propositions sont alors affichées. Cliquez sur "Définir la zone géographique ciblée"
  4. Si vous cliquez sur le bouton radio "Associer une zone géographique à ce site", un formulaire s'affiche dans lequel vous pouvez introduire les paramètres idéaux pour votre site.

Remarque : À tout moment, vous pourrez modifier les informations de pertinence géographique de votre site. Cliquez sur Modifier pour mettre à jour les informations selon vos besoins.

lundi 24 septembre 2007

1-mot.com : annuaire de liens en dur

1-mot.com est un annuaire de liens en dur.
Cela signifie que le lien figure réellement dans le code HTML et peut donc être rédigé comme ceci :<a href="http://www.easy-concept.com">www.easy-concept.com</a> au lieu d'être un lien passant par un script de redirection. Ce mode de lien est excellent pour les moteurs de recherche. Si vous êtes webmaster, cet annuaire génère pour vous deux liens en dur (un dans la liste des sites d'un mot et un sur la fiche de votre site) et va même jusqu'à en afficher 5 de plus si vous possédez un flux rss.

Sa particularité est de référencer les sites en fonction d'un seul mot. Par exemple, le mot Internet où nous figurons. Plus de 500 mots sont déjà disponibles. Seule condition : ajouter un lien de retour vers l'annuaire sur une page du site. Ce n'est pas la mer à boire, et c'est avec plaisir que nous l'avons mis dans les liens du blog.

vendredi 21 septembre 2007

Annuaire lien : annuaire gratuit sans lien retour

Bien souvent, lorsqu'on souhaite enregistrer son site dans un annuaire, on est "invité" à placer un lien de retour vers cet annuaire. En conséquence, l'annuaire gagne en visibilité puisque qu'il augmente ses liens entrants (les référenceurs parlent de backlink) à chaque nouvel inscrit. Le nombre de backlinks (qui est l'un des critères utilisés par Google) d'une page peut être grossièrement déterminé en écrivant la commande link: suivie du nom de domaine (sans espace) dans la barre de recherche de Google. Par exemple : link:www.easy-concept.com

Annuaire Lien, par contre, propose d'inscrire votre site sans cet échange de liens. Vous trouverez sur cet annuaire une multitude de sites gratuits classés dans diverses catégories et vous disposez d'un moteur de recherche qui vous permettra de pouvoir trouver une thématique spécifique en quelques clics.

Cela ne m'empêche pas de le faire par pure courtoisie...

Annuaire Lien

mercredi 19 septembre 2007

SEO Masters. Quel expert êtes-vous ?

SEO pour "Search Engine Optimization" est un terme anglophone désignant le référencement ou peut également signifier "Search Engine Optimizer" si l'on parle du métier. Métier qui consiste à promouvoir les sites Web dont il a la charge dans les outils de recherche (moteurs de recherche essentiellement). Et avec le secret entourant l'algorithme de Google, il s'agit d'une véritable fonction de chercheur...

Si vous souhaitez voir quelles sont vos qualités en ce domaine, vous pouvez vous rendre sur le site Trackbusters.

Après vous être enregistré et avoir confirmé votre inscription par un clic dans un mail envoyé à votre adresse, vous disposerez d'un nom d'utilisateur et d'un mot de passe. Ces derniers vous permettront de remplir un questionnaire en ligne. Les questions posées sont sensées permettre de mesurer votre connaissance du référencement. Selon le niveau choisi (débutant, confirmé, expert), vous devrez répondre à 15, 30 ou 50 questions dans un délai maximal de 15 secondes par question. Les points sont accordés de la manière suivante : 2 points pour une bonne réponse, -1 point pour une réponse fausse, -2 points si vous ne répondez pas assez vite.

Il y a actuellement 550 questions dans la base FR. Quant au questionnaire, il s'adapte en fonction de chaque joueur. Les résultats, quant à eux, sont présenté à la manière d'une page de résultat Google.

mardi 10 juillet 2007

Que voient les moteurs de recherche (2) ?

Dans un commentaire, Marie disait que, pour sa part, elle préférait Lynx viewer à Spider simulator. Voici un peu plus d'informations à ce sujet.

Lynx est le nom d'un navigateur hypertexte pour Internet qui fonctionne en mode texte. Grâce à une interface facile à intégrer à un synthétiseur vocal, Lynx était très apprécié des mal-voyants, même si d'autres techniques l'ont peu à peu supplanté. Pour les webmasters, son principal intérêt est qu'il permet une navigation ultra rapide car il ne télécharge QUE le texte en ignorant tous les autres contenus (images, animations, sons, scripts...) Reconnaissant les liens hypertextes, il est possible de l'utiliser comme n'importe quel autre navigateur. Autrement dit, il voit votre site de la même manière qu'un moteur de recherche. L'auteur le dit lui-même : "ce service est prévu pour être utilisé par les développeurs de contenu, sur leurs propres pages".

Pour simuler cette lecture, utilisez Lynx Viewer mis à disposition par delorie.com. Il suffit de taper dans le champ formulaire l'adresse de la page Web dont vous souhaitez simuler la lecture. Ensuite, validez votre adresse en cliquant sur le bouton "View page". Vous verrez alors s'afficher la page demandée, dépoyée de tous les éléments non textuels.

mardi 24 avril 2007

Supprimer une page de l'index de Google (2)

Il y a quelques temps, je vous expliquais comment procéder pour supprimer une page de l'index de Google. Peu de webmasters utilisaient cette technique, car la page n'était pas facilement trouvée dans le système de gestion de Google.

Les choses ont bien évolué, car dans son centre pour les webmasters, Google propose à présent explicitement un outil permettant de supprimer une URL de l'index de Google.

  1. Cliquez sur " Outils pour les webmasters (notamment Google Sitemaps)"
  2. Sélectionnez le site à administrer
  3. Dans l'onglet "Diagnostique", cliquez sur le denier point " Suppressions d'URL"

Pour supprimer une ou pliusieurs URL de l'index Google, effectuez l'une des opérations suivantes :

  • Vérifiez que les demandes d'accès à la page renvoient le code d'état HTTP 404 ou 410. Le serveur envoie cette réponse lorsque la ressource invoquée a été déplacée de manière définitive. Ce code est identique au code 404 (Introuvable), mais il est parfois utilisé à la place de ce dernier pour signaler des ressources qui existaient auparavant.
  • Bloquez la page à l'aide d'un fichier robots.txt.
  • Bloquer la page à l'aide d'une balise META "noindex"

Votre contenu sera supprimé de l'index lors de la prochaine exploration de votre site par Google. Si vous devez accélérer la suppression, vérifiez que vous remplissez l'une des conditions énoncées ci-dessus, puis cliquez sur le bouton Nouvelle demande de suppression ci-dessous pour utiliser cet outil automatisé.

samedi 21 avril 2007

Calculer la densité des mots clés

Optimiser son site et, pour ce faire, y introduire de nombreuses fois les mots essentiels à votre activité est un sérieux travail. Pour vous aider, il existe quelques sites proposant des outils utiles à ce propos :

jeudi 19 avril 2007

Google appelle à la délation

Toute personne qui a en charge la gestion d'un site et son référencement connaît Google et son célèbre moteur de recherche. Elle connaît certainement aussi le centre pour les webmasters développé par la firme de Mountain View pour leur apporter un maximum d'outils.

Or, certains sites tentent de tromper le robot de Google en utilisant certaines techniques que nous avons déjà décrites :

  • texte caché
  • redirections trompeuses
  • pages masquées (cloaking)
  • page satellite (doorway)
  • autres techniques de "spamdexing" qui faussent la qualité des résultats

Afin de lutter contre ces techniques déloyales (il faut bien le reconnaître) qui faussent l'algorytme de Google et privilégient les tricheurs (il faut aussi le reconnaître) au détriment des développeurs intègres, Google à mis en place une page qui permet de dénoncer les sites utilisant de telles techniques.

Et ce n'est pas tout !

D'après Sébastien Billard, il serait également possible de dénoncer des liens payants directement via le système de spam report, en incluant le mot-clé "paidlink" dans le sujet et le corps du message.

Si je suis perplexe face au premier système de délation, pouvoir dénoncer des liens payants me paraît encore plus oiseux ! Pourquoi un site devrait-il être "puni" car son propriétaire paie des liens pointant vers lui ? Si la qualité rédactionnelle est au rendez-vous et le contenu proposé intéressant... Peu m'importe de savoir que le webmaster a payé quelqu'un pour me la faire connaître... Les corbeaux ont encore de beaux jours devant eux !

mardi 17 avril 2007

La soumission de sitemap simplifiée.

Sur le site sitemap.org, il est à présent stipulé que la soumission du fichier sitemap.xml peut être facilitée. Vous ne devrez plus passer par la page de Google et celle de Yahoo! pour effectuer ce travail.

En effet, il suffit de préciser dans le fichier robots.txt l'endroit (le chemin exact) où se trouve le fichier sitemap et le nom que vous lui avez donné, par exemple, cela pourrait donner :

Sitemap: http://www.easy-concept.com/googlemap2.xml

Et si vous n'avez pas encore de fichier robots.txt, pas de problème : il suffit d'en créer un et de la placer à la racine de votre site. Vous trouverez ici les explications pour y arriver.

jeudi 12 avril 2007

Guide des facteurs de positionnement sur Google

Dans une étude particulièrement intéressante, SEOmoz publie son "Search Engine Ranking Factors Guide" (Guide des facteurs de positionnement sur les moteurs de recherche). Spécifiquement dédiés à Google et réalisés avec l'aide de nombreux contributeurs, ils précisent les éléments essentiels pour être bien positionné dans les moteurs de recherche.

10 facteurs positifs

  1. Utilisation de mot-clé dans la balise de titre
  2. Popularité de l'emplacement du lien
  3. Formulation du texte servant au lien entrant
  4. Popularité du lien par rapport à la structure du site
  5. Âge du site
  6. Pertinence de relation entre le site de départ et sa cible
  7. Popularité et "autorité" du lien entrant
  8. Utilisation de mot-clé dans le corps du texte
  9. Popularité globale des liens du site de départ
  10. Fréquence de nouveaux liens et emplacement de ceux-ci

Il permet aussi de préciser les

5 facteurs particulièrement néfastes

  1. Le serveur est souvent inaccessible
  2. Contenu très semblable ou duplication d'un autre site
  3. Liens de mauvaise qualité ou provenant de sites de spam
  4. Multiplication des mêmes titres et META sur toutes les pages
  5. Participation à des échanges de liens arrangés ou achetés

vendredi 6 avril 2007

XML Sitemap Tool génère votre sitemap

XML Sitemap Tool est une application, assez lourde à charger, développée en Java et disponible gratuitement sur Internet qui vous permettra de générer le plan de votre site avant de l'envoyer à Google. Je vous ai parlé à de nombreuses reprises de l'importance de ce dernier. Cette dernière application est assez complète et devrait suffire à la majorité des utilisateurs.

Après avoir accepté, pour des raisons de sécurité, de la faire tourner sur votre ordinateur, voici ce que vous pourrez faire :

  • L'application tient compte des règles émises dans le fichier "robots.txt" ou la balise META"robots".
  • Si vous souhaitez n'indiquer que les URL dfes pages, vous pouvez demander d'exclure les images de l'analyse.
  • Vous pouvez demander un niveau de profondeur d'analyse ou le laisser au maximum.
  • Si vous êtes en hébergement mutualisé, vous pouvez régler l'application afin qu'elle ne prenne pas 100% du cpu de votre serveur.
  • Et enfin, afin de ne pas devoir recommencer l'indexation à chaque fois depuis le début, vous pouvez sauvegarder le dernier audit sur votre ordinateur.

vendredi 23 mars 2007

Stratégie des liens entrants

Si vous avez cherché un jour à optimiser le positionnement de votre site sur les moteurs de recherche, les lectures que vous avez faites et les conseils qu'on vous a donnés devaient normalement se résumer à ces quelques conseils :

  • proposer un contenu riche et varié
  • entretenir régulièrement le site en ajoutant et / ou modifiant son contenu
  • développer un site en utilisant un code le plus proche possible des standards du W3C, en soignant les balises <title>, <description> et <keywords>
  • proposer des liens sortants de votre site
  • avoir un maximum de liens pointant vers votre site

Ce dernier point, nommé stratégie de netlinking par les spécialistes, est particulièrement important. En effet, dans l'algorithme de Google, le nombre de liens entrants est important. Plus vous aurez de pages Web pointant vers votre site, plus ce dernier sera considéré comme populaire. De ce fait, il apparaîtra en meilleure place que ses concurrents moins populaires... Logique !

Qui plus est, l'intitulé du lien est lui-même très important. Ainsi si le lien pointant vers votre site contient un bon descriptif de vos activités, comme par exemple "création site", il sera plus porteur pour vous que le simple nom de votre société "easy-concept"

Jusqu'à aujourd'hui, il était très difficile de connaître la liste des mots utilisés dans les liens pointant vers votre site. Google vient d'améliorer son outil d'aide aux webmasters dans Google Webmaster Central Tools, en y ajoutant la possibilité de voir jusqu'à 100 intitulés de liens et de télécharger le tableau affiché au format csv..

Voici comment en profiter :

  1. Rendez-vous sur Google Webmaster Central Tools
  2. Cliquez sur "Gérer http:// suivi de l'URL que vous souhaitez analyser.
  3. Cliquez sur "Statitiques" dans le menu supérieur.
  4. Cliquez sur " Analyse des pages" dans le menu de gauche

Bien sûr l'outil est encore perfectible. Par exemple, il n'est pas possible de connaître la page sur laquelle se trouve tel ou tel lien, mais les bases sont posées pour progresser dans l'optimisation de votre site...

mercredi 28 février 2007

Un site en première page de Google

N'est-ce pas là le rêve de tout le monde ? Alors, laissons un peu de côté les balises META qui semblent tant plaire aux clients alors qu'elles ne servent pratiquement plus à rien (mis à part TITLE , DESCRIPTION et, dans une moindre mesure, KEYWORDS) et attachons-nous à quelques pratiques qui restent universelles :

A faire :

  • Proposer des pages qui contiennent suffisamment de contenus textuels, les images n'étant pas exploitées par les moteurs de recherche.
  • Le contenu de votre site doit être pertinent, crédible (un peu de lecture à ce sujet)et régulièrement mis à jour.
  • Les mots clés de votre site doivent se retrouver de nombreuses fois dans vos pages, vos titres, mis en exhergue...
  • Proposer un site le plus vaste possible en terme de page et de contenu, notamment au niveau des mots-clés.
  • Tenter d'avoir un code le plus pur possible, respectueux des standards du W3C.
  • Utiliser les bonnes balises pour définir les titres, sous-titres...
  • Avoir un maximum de liens entrants pointant vers son site grâce à des partenaires. Je vous invite à lire cet excellent article sur la stratégie du linking à ce sujet
  • Avoir des noms de fichiers et d'images explicites et contenant vos mots clés

A éviter :

  • Développer un site entièrement en Flash
  • Utiliser des menus en Javascript, Flash ou Java qui ne sont pas lus par les moteurs de recherche sans proposer de système de navigation alternatif
  • Ajouter un contenu invisible (en utilisant javascript ou des feuilles de style) de manière à tromper (jusqu'à quand ?) les moteurs et les visiteurs... Demandez un peu à BMW l'effet que cela fait de se faire éjecter de Google !

mardi 16 janvier 2007

Google varie ses résultats selon les pays

Un client ayant une société à Dubai nous a demandé de vérifier ce que l'on pourrait faire pour lui afin de bien positionner son site sur les moteurs de recherche. Nous avons donc effectué une recherche depuis Google.be et la même depuis Google.ae et force est de constater que les résultats diffèrent nettement. Par discression, nous proposons une autre recherche à la lecture.

Nous avons encodé "site internet" dans ces deux moteurs et les résultats sont nettement différents. Voici d'abord le résultat du côté belge :

et ensuite le site arabe :

Si la recherche belge donne comme résultat une série de sociétés créatrices de sites Internet (comme Easy-Concept, troisième sur 1.180.000.000 résponses), la partie arabe ne propose dans ses résultats que des hôtels et des sites associatifs...

Il y a fort à parier que cette différence notoire provient de l'algorithme de Google. Cet algorithme est en perpétuelle amélioration et sert à donner des résultats qui doivent être les plus efficaces possibles. Bien sûr personne ne connait la totalité de celui-ci, mais ses grandes lignes sont connues :

  • Augmentation de la fréquence des mises à jour de la base de données par Google bot.
  • Indexation permanente des nouvelles pages avec mises à jour partielles et régulières.
  • Mises à jour approfondies plus longues dans le temps.
  • Mises à jour des backlinks et des pageranks fréquentes.

mercredi 3 janvier 2007

Ranking Toolbox : améliorez votre référencement

Ranking Toolbox est une suite d'outils (malheureusement payants après la période d'essai) permettant de vérifier, améliorer et optimiser votre positionnement dans les moteurs de recherche.

Elle vous permettra ainsi :

  • de comprendre pourquoi certains sites sont mieux référencés que le vôtre.
  • de déterminer avec précision quels sont les mots clés à optimiser.
  • de déterminer le ranking de vos sites Web auprès des outils de recherche. Vous connaîtrez le classement de vos sites Web (ou ceux de vos concurrents) auprès des différents outils de recherche.
  • d'entrer vos propres critères d'évaluation.

vendredi 8 décembre 2006

Qu'est-ce que le cloaking ?

Utilisé pour tromper les moteurs de recherche, cette technique, bien évidemment proscrite, consiste à fournir un contenu de page différent selon qu'il s'agit d'un visiteur ou d'un moteur de recherche.

Je vous ai expliqué dernièrement que, dans le fichier robots.txt, une commande permettait d'autoriser les robots à indexer ou non du contenu. Une autre commande, User-Agent, permet de dire à quel moteur de recherche spécifique on autorise l'accès ou pas. Vous pourriez ainsi, par exemple, autoriser Google à indexer vos pages, mais pas Yahoo!

Il est possible, par conséquent, de repérer le passage d'un moteur de recherche particulier grâce à cette commande et de lui fournir un contenu différent, comportant des mots clés en surnombre et des titres de divers niveaux sans que cela ne soit visisble par les "vrais" visiteurs.

Sachez cependant que, si vous êtes répéré, la suite sera sans appel : vous serez purement et simplement éjecté de la base de données du moteur de recherche... et ce pour un délai indéterminé...

lundi 4 décembre 2006

Robots.txt : cacher du contenu

Votre site est à présent référencé et les visiteurs sont contents du contenu que vous proposez... Bref, tout est pour le mieux dans le meilleur des mondes... Mais plus votre site augmente en volume, plus il y a de chance que vous deviez placer des fichiers dont vous ne tenez pas à partager le contenu avec le reste du monde.

Si votre serveur contient des documents des documents que vous voulez rendre accessibles sans que leur contenu ne soit indexé par les moteurs de recherche, robots.txt peut vous aider. Il s'agit d'un fichier au format texte, placé à la racine du site, qui définit de quelle manière les robots doivent traiter vos fichiers.

La syntaxe est assez simple :
User-Agent: * Disallow: /chemin/page.html

Si vous souhaitez interdire tous les fichiers de type Word, vous pouvez alors le préciser de cette manière :
Disallow: *.doc

Voici différentes manières de configurer cette commande :

Disallow: /page.xls
interdit la page page.xls, située à la racine

Disallow: /dossier/
interdit l'accès au répertoire /dossier

Disallow:
autorise l'indexation de tout le site

Disallow: /
interdit l'indexation de tout le site

Lorsque vous utilisez cette restriction dans votre site, gardez quand même à l'esprit que, si vous interdisez au moteur de lire des fichiers de nature confidentielle, vous n'empêchez pas les curieux de demander l'accès à ce fichier et de voir, en clair, le nom des fichiers sensibles... Voici, à titre d'exemple, le fichier robots.txt de Google.be

vendredi 24 novembre 2006

Outils pour la densité des mots-clés

Toutes les sociétés de création de sites Internet ainsi que celles qui se chargent de l'optimisation d'un site sur les moteurs de recherche (et sur Google en priorité...) parlent de densité des mots clés. La densité d'un mot est le nombre de fois que ce mot est répété par rapport au nombre total des mots de la page. Par exemple, pour une page de 300 mots, un mot répété 6 fois aura une densité de 2 %.

L'idéal serait évidemment de connaître exactement la densité parfaite qui permettrait à un mot donné d'être propulsé sur la première page de résultat de Google... Mais il faut déchanter. En effet, ce pourcentage idéal n'existe pas puisque chaque moteur applique un algorithme qui lui est propre et qui est très régulièrement adapté.

Cela ne veut pas dire qu'il faut obligatoirement travailler à l'aveuglette : les experts s'accordent à dire qu'une densité comprise entre 5 % et 10 % serait assez efficace. Inutile de dépasser ces valeurs, car vous risqueriez de vous vous faire expulser des moteurs qui prendraient ces pourcentages excessifs pour une tentative de spam.

Alors, pour vous aider à établir efficacement vos mots clés, voici deux outils qui pourraient se révéler utiles :

samedi 18 novembre 2006

Sitemap pour Google, Yahoo! et Microsoft

Depuis 2005, Google proposait un protocole appelé Sitemaps qui permettait d’aider les internautes à indexer leur site internet. Il s'agit d'une page en XML sur laquelle figurent des détails à propos de chaque page du site. L’objectif est d'aider le moteur de recherche à indexer la totalité des pages d'un site. Voici un exemple de contenu :

< url>
< loc>http://www.easy-concept.com/</loc>
< lastmod>2006-11-18</lastmod>
< changefreq>monthly</changefreq>
< priority>0.8</priority>
</url>

La concurrence entre les principaux moteurs de recherche étant rude, Yahoo! et Microsoft, ont décidé d’adopter eux-aussi cet outil. Pour l'occasion, ils se sont associés dans la construction d’un site Internet, sitemaps.org qui présente ce protocole.

Le fonctionnement de Sitemaps est très simple et se déroule en trois étapes :

  • Créer un ou fichier XML contenant les urls du site.
  • Mettre le fichier XML à la racine de votre site.
  • Soumettre le fichier SiteMap à Google.

Comment creer un sitemap ? Il existe différents sites proposant des générateurs de sitemaps :

Si vous souhaitez pousser vos investigations plus loin, je vous invite à consulter cette section du site de Google très complète.

vendredi 10 novembre 2006

Rediriger efficacement votre URL

Vous aviez pris le nom de domaine http://www.monactivite.com. Pour une raison qui vous est propre, vous avez décidé de changer ce nom de domaine en http://www.mon-activite.com

Ceci pose trois problèmes :

  1. Tant que votre site est dans le sandbox, Google ne va pas le référencer de manière optimale.
  2. Vos visiteurs habituels connaissent votre ancienne adresse et vous allez devoir, si vous voulez leur comnuniquer la nouvelle, déployer de gros efforts.
  3. Si vous avez simplement placé les anciens fichiers sur le nouvel hébergement, Google risque de se rendre compte qu'il s'agit d'un site miroir et de pénaliser ce fait en le rétrogradant dans les résultats, voire en ne l'indexant pas du tout !

Il s'agit donc de bien penser la manière dont vous aller procéder.

1. Redirection par URL Rewriting

Cette technique est la meilleure car elle va permettre aux robots de supprimer les anciennes adresses de leurs bases de données et de la remplacer par la nouvelle.

  • Ouvrir le bloc note
  • Ecrire le code de redirection comme ceci : Redirect permanent / http://www.mon-activite.com/
  • Enregistrer le fichier sous le nom .htaccess (sans oublier le point)
  • Uploader le fichier à la racine de l'ancien hébergement

Dès qu'un visiteur arrivera sur votre ancien site, il sera immédiatement redirigé vers le nouveau.

2. Redirection par frame

Tout aussi simple à mettre en oeuvre, cette seconde possibilité est beaucoup moins bonne pour le retour dans les moteurs de recherche. Elle consiste à créer un fichier html contenant une frame de 100% de largeur et de hauteur qui va contenir votre nouveau site. En voici le code a insérer dans un fichier HTML:

<frameset rows="100%" border="0">
<frame name="bottom" scrolling="auto" marginwidth="0" marginheight="0" src="http://www.mon-activite.com" noresize>
<noframes>

Il vous suffit ensuite d'enregistrer votre fichier sous le nom index.html et de l'envoyer à la racine de votre ancien hébergement.

Il faut cependant noter que cette technique pose deux gros problèmes :

  • Le nom de la page de destination ne s'affiche jamais dans la barre d'adresse
  • Lorsqu'on enregistre le site dans les favoris, c'est la page d'accueil qui est enregistrée, jamais celle sur laquelle on se trouve.

3. Redirection directement sur le serveur

Assez complexe à mettre en oeuvre, cette possibilité nécessite d'avoir un accès complet au serveur et dépend d'un hébergeur à l'autre. La manière de procéder chez OVH est décrite dans le guide à propos des noms de domaine

mardi 19 septembre 2006

PR Weaver : logiciel d'analyse des backlinks et du PageRank

Si les visiteurs de votre site sont aussi rares que le cheveu sur la tête à Matthieu, il est temps prendre les choses en main et d'auditer votre site. PR Weaver, un logiciel dédié à cette tâche va vous permettre de déceler ce qui pose problème. Voici la présentation que l'éditeur en fait.

Résultats Google + PageRank PR Weaver permet d'effectuer des recherches simples sur Google et d'afficher à côté de chaque résultat son PageRank.
La fonction de recherche avancée de PR Weaver permet de chercher les pages susceptibles de devenir des nouveaux backlinks. La page "idéale" qui pourrait mettre en place un lien vers votre site est une page à fort PR, traitant du même thème que le vôtre, et qui propose déjà d'autres liens. Cette fonction permet de trouver des pages qui peuvent devenir des nouveaux backlinks, et qui ne sont pas forcément dans les backlinks de vos concurrents.

Recherche de Backlinks Google + PageRank PR Weaver permet d'analyser les backlinks d'une page donnée (la liste des URLs ayant mis un lien vers cette page donnée) avec le PageRank associé.
La fonction de recherche de backlinks avancée permet d'afficher le texte du lien qui pointe vers une page donnée ainsi que le texte alternatif des images (attribut "alt" des balises "img"), en filtrant éventuellement les backlinks internes (liens provenant du même domaine ou du même sous-domaine).

Liste d' URLs + PageRank Cette fonctionnalité affiche le PageRank d'une liste de pages dont vous avez donné l'URL.

Il s'agit donc d'un outil idéal pour les webmasters soucieux de placer leur site en bonne place dans les moteurs de recherche.

lundi 18 septembre 2006

Des pistes pour optimiser son site

Certes, il est indispensable de se trouvé référencé dans Google et Yahoo! Mais si vous souhaitez que votre référencement soit optimisé, il convient alors de s'intéresser à d'autres moteurs et annuaires dont voici les principaux :

Outre ces moteurs, leaders de la recherche, il existe une manière de se voir ajouté à de nombreux moteurs en utilisant des logiciels payants ou gratuits qui se chargent alors d'effectuer le travail à votre place. Il faut cependant utiliser ces outils avec circonspection, car il faut à tout prix éviter que les gros moteurs ne prennent cette arrivée massive de nouveaux liens pour du spam ! Qui plus est, il est intéressant de se poser la question suivante : A quoi bon être référencé sur des centaines de moteurs de recherche quand on sait qu'une présence dans Yahoo! et Google suffit amplement ?

Parmi les outils les plus connus, je vais citer :

Enfin, lorsque le référencement sera lancé, il conviendra alors de suivre l'évolution de votre site. Dans ce cas, les outils d'analyse seront fort utiles :

  • Free Monitor for Google - Gratuit qui propose deux méthodes de suivi. La première affiche les premiers sites renvoyés par Google en fonction du mot clé recherché. La seconde analyse la position de votre site sur Google pour les mots clés précisés.
  • Yooda seeUrank qui lui est payant, mais permet le contrôle du référencement (ranking), le relevé des sites leaders, l'analyse des liens référents (backlinks), le relevé des pages présentes (index), l'analyse de l'optimisation des pages et l'indice de visibilité et classement de sites

lundi 31 juillet 2006

Enregistrer son site dans les annuaires

Comme je le disais dans mon billet de samedi sur le sandbox de Google, la soumission aux moteurs de recherche est indispensable à qui souhaite générer du trafic sur son site. Mais il ne s'agit pas de la seule et unique voie d'accès à la notoriété.

En effet, les annuaires représentent un complément appréciable à une campagne de référencement réussie : les liens ainsi obtenus, tout en augmentant votre popularité sur les moteurs, génèrent également du trafic. Donc, on serait tenté de le faire sur l'annuaire le plus populaire qui est sans conteste Yahoo. Il occupe, immédiatement derrière Google, la 2ème place des outils de recherche utilisés sur internet.

Malheureusement, la politique de Yahoo a changé et, s'il est toujours possible de trouver son site enregistré dans son moteur de recherche, l'accès à l'annuaire est, quant à lui, devenu payant pour les sites à vocation commerciale. Et comme une mauvaise nouvelle ne va jamais seule, tous les annuaires dépendant du même groupe (Yahoo!, MSN, Lycos, et Altavista) ont adopté la même résolution

Il ne reste plus, dès lors, qu'à utiliser des annuaires "secondaires" qui acceptent encore l'inscription de votre site sans devoir sortir la carte de crédit. Voici quelques conseils pour que votre soumission ait toutes les chances d'être acceptée :

  • Soumettez un site "abouti" sans erreur de lien qui apporte une vraie plus-value aux utilisateurs de l'annuaire.
  • Soumettez votre site dans les annuaires traitant du contenu exact de votre site. Quel intérêt un site sur le psoriasis présente-t-il dans un annuaire regroupant des amateurs de cartes postales ?
  • Soumettez votre site dans la catégorie la plus pertinente de l'annuaire, et non à sa racine.
  • Soignez les éléments textuels destinés à l'indexation de votre site (titre, description et most clés)

samedi 29 juillet 2006

L'effet Sandbox de Google

Pour faire connaître son site, il faut obligatoirement passer par l'enregistrement dans les moteurs de recherche. A ce sujet, certains prônent de laisser "faire la nature" (les moteurs vous trouveront lorsqu'ils suivront un lien pointant vers votre site) et d'autres passent par un enregistrement automatique par une page de soumission, lorsqu'elle existe.

Quelle que soit la technique utilisée, la patience est de rigueur… Ainsi, le moteur de recherche qui génère en Belgique le plus de visite (Google, pour ne pas le citer) place systématiquement les sites qu'on lui soumet ou qu'il trouve au gré de ses pérégrinations dans un "Sandbox" (littéralement, un bac à sable)

En faisant cela, il empêche les nouveaux sites de se positionner dans les premières places de son index pendant leurs premiers mois d'existence. Il semble que cette action est destinée à attendre que le nouveau fasse ses preuves. Et puis, un beau jour, quand Google a estimé que la période de quarantaine était terminée, (au bout d'un délai allant de quelques semaines à quelques mois) le site trouve un positionnement plus conforme à sa place "logique" alors qu'aucun changement notoire n'a été opéré sur le site.

Il est assez amusant de constater que Google, fidèle à sa tradition, n'a jamais communiqué à propos de ce Sanbox alors que son effet a déjà été décrit par les observateurs depuis 2004…

Certaines techniques semblent guider actuellement les référenceurs :

  • Eviter de lier, dès son inscription, trop de sites dont le contenu textuel est fort proche du vôtre. Google risque d'interpréter cela pour une tentative frauduleuse et de pénaliser le site...
  • Eviter, surtout au début de la vie du site, d'obtenir des liens pointant vers votre site alors qu'aucun lien logique ne les associe.
  • Eviter que, du jour au lendemain, 200 sites n'indiquent que votre site comme étant incontournable…

Autrement dit, il faut patienter que votre site devienne vraiment une référence et que de nombreux liens pointent vers lui plutôt que de chercher à tromper la vigilance de l'algorithme de Google... Et pourtant, le site du garage Honda Deverchin à Mons, que nous avons mis en ligne en juillet, oscille entre la troisième et le première place de Google sur les termes "garage Mons" qui étaient l'objectif du propriétaire... et ce une semaine après sa mise en ligne ! Allez comprendre !

vendredi 28 juillet 2006

Le guide du référencement

Le site le guide gratuit du référencement propose un guide de 25 pages, disponible uniquement en téléchargement, intitulé "Améliorez votre référencement en quelques heures".

Ce livre gratuit vous dit l'essentiel de ce que vous devez savoir pour réussir :

  • Préparer votre site pour le référencement,
  • Référencer votre site dans les annuaires et moteurs de recherche,
  • Connaître les écueils à éviter,
  • Comment devenir populaire sur Internet,
  • Quels sont les "plus" qui font la différence,
  • Et une étude des cas particuliers.

Bien sûr, il ne faut pas s'attendre à des miracles, le guide proposant simplement une synthèse des recommandations de base, mais il constitue un bon pense-bête qui permettra d'éviter des erreurs grossières lors de la construction de votre site.

mardi 4 juillet 2006

Les sites Flash et les moteurs de recherche

Il est bien connu que les moteurs de recherche n’aiment pas les sites en Flash. Que ceux-ci soient intégralement développés avec cette technologie ou que la navigation se fasse par ce biais et ce, parce que rares sont les robots capables de lire le contenu d’un fichier swf. A ce jour, je ne connais que Google et dir.com

Pourtant, nombreux sont les sites agrémentés d'animations réalisées au format Flash. Pourquoi ? Parce cette technologie de Macromedia permet d'insérer des images, des photos, des dessins vectoriels et de les animer. Si l'animation réalisée contient du texte, celui-ci ne sera pas pris en compte par la majorité des moteurs de recherche qui ne parviennent pas (encore ?) à interpréter ce format de fichier. Un site réalisé en Flash ou utilisant cette technologie pour assurer la navigation ne sera pas correctement indexé.

Quelques conseils vous permettront malgré tout "de limiter la casse" et de permettre aux moteurs de recherche d'indexer le contenu de votre site :

  • Donnez à chaque page HTML un titre clair et précis
  • Veillez à proposer une plan du site accessible par un vrai lien HTML. Ce sitemap doit contenir des liens vers toutes les pages de votre site Web. Si votre site est volumineux, vous pouvez utiliser un programme gratuit pour réaliser cette tâche pas vraiment amusante.
  • Créez un fichier robots.txt dans la racine du site web afin de signaler aux moteurs de recherche les pages du sites qui doivent être indexées.
  • Soignez particulièrement la balise de description de chacune des pages de votre site
  • Insérez un maximum de texte dans la balise <NOEMBED> de votre animation. Elle sert a fournir un contenu alternatif en html à des éléments (sons, animations, vidéo...) susceptibles de ne pas être lus par tous les ordinateurs.
  • Utilisez l'option "ALT" des images, si votre fichier HTML en contient.

Et si votre site est intégralement développé en Flash, je vous conseille d'en proposer une version HTML, accessible depuis la page d'accueil et dont l'accès se fait par un lien en dur dans l'HTML.

Enfin, si toutes ces actions n'ont aucun poids sur votre positionnement, il ne vous reste plus qu'à utiliser les offres de positionnement payant comme Google Adwords ou Overture, devenu Yahoo! Search Marketing

jeudi 15 juin 2006

Retirer une page de l'index de Google

Google a indexé votre site. Parfait ! Mais si vous suivez nos conseils, vous actualisez régulièrement votre site : ajouts de nouveaux fichiers et modifications des contenus qui peuvent entraîner la suppression de certaines pages. Dans ce dernier cas, Google peut mettre un certain temps avant d'actualiser sa base de données et envoyer les visiteurs vers une page d'erreur.

Une bonne manière de voir les pages indexées par Google est d'encoder l'instruction "site:" suivi de l'URL de votre site (Par exemple : "site:easy-concept.com") dans la zone de recherche de Google pour voir le nombre et le nom des pages indexées .

Il existe pourtant une solution basée sur l'outil de suppression de pages de l'index de Google. Cet outil permet à tout webmaster d'indiquer à Google que sa base de données doit être modifiée. Il suffit d'ajouter une balise meta robots "noindex" puis de remplir le formulaire.

Une fois sur la page, créez un compte Google si vous n'en avez pas. Une fois le formulaire de connexion validé, vous arrivez à une "console" vous proposant de :

  • Supprimer des pages, des sous-répertoires ou des images à l'aide d'un fichier robots.txt. Le fichier robots.txt ne doit pas obligatoirement figurer dans le répertoire racine
  • Supprimer une page unique à l'aide de balises META.
  • Supprimer un lien périmé.

En quelques heures, la page incriminée devrait avoir disparu.

mardi 13 juin 2006

Ejection de Google pour emploi de div caché

Sur le forum de WebRankInfo, un site spécialisé en référencement, un visiteur se plaint d'avoir été éjecté de Google.

Cet auteur d'un site avait mis un DIV (une balise permettant de regrouper plusieurs éléments) contenant des informations. Il avait, en supplément, utilisé des feuilles de style permettant de cacher ce dernier. Le but de la manoeuvre était que les visiteurs n'ayant pas d'accès ne voient pas le contenu du DIV alors que ceux qui étaient enregistrés et les moteurs de recherche pouvaient y avoir accès.

While we were indexing your webpages, we detected that some of your pages were using techniques that were outside our quality guidelines, which can be found here:
http://www.google.com/webmasters/guidelines.html
In order to preserve the quality of our search engine, we have temporarily removed some webpages from our search results. Currently pages from xxx are scheduled to be removed for at least 30 days.

Ceci pourrait être traduit de cette manière :

Tandis que nous classions vos pages Web, nous avons détecté que certaines de vos pages employaient les techniques qui étaient en dehors de nos directives de qualité, qui peuvent être trouvées ici :
http://www.google.com/webmasters/guidelines.html
Afin de préserver la qualité de notre moteur de recherche, nous avons temporairement enlevé quelques pages Web de nos résultats de recherche. Actuellement, les pages de xxx sont programmées pour être enlevées pendant au moins 30 jours.

Cette "mésaventure" tend à prouver ce que nous ne cessons de répéter à nos clients :

  • pour être bien indexé dans les moteurs de recherche, un site doit être développé dans un langage HTML le plus pur possible, le mieux étant que le site respecte les conventions du W3C
  • Google est incapable de détecter certaines techniques frauduleuses... Mais ses techniciens travaillent au jour le jour et le moteur progresse. Il vaut donc mieux être moins bien situé (sans artifice) que plus du tout !
  • La meilleure manière de bien situer son site est de le faire vivre, de le mettre à jour régulièrement, afin d'attirer de nouveaux visiteurs (et de les garder). A ce niveau, un blog est un plus indéniable ! Pour preuve, nous avons augmenté les visites sur notre site de près de 25% depuis la mise en ligne de notre blog ... Il y a un mois et demi !
  • Plus votre site sera intéressant au niveau du contenu, plus il a de chance de voir des liens pointant vers lui... ce qui est également très important pour la PageRank.

mercredi 7 juin 2006

Pas de Javascript pour un bon référencement

Nous avons, pour un client, effectué un audit de positionnement sur les principaux moteurs de recherche. En parallèle, nous avons analysé le code et trouvé une utilisation abusive du javascript :

  • menus directement intégrés dans le code
  • code caché (la désactivation du Javascript rendait la page d'accueil abominable)
  • validation de champs de formulaire...

Si le positionnement du site n'était pas si mauvais, nous avons cependant décidé de remplacer tout ce javascript par d'autres techniques car nous voulions le rendre 100% compatible et accessible. Nous ne voulions pas non plus nous couper de la clientèle qui désactive le Javascript

Sur le site de TheCounter, pour le mois de mai 2006, il est précisé que 5% des utilisateurs désactivent le Javascript. Selon les mois, cette donnée peut grimper à 12%. TheCounter est incontestablement une ressource fiable, ce site a en effet échantillonné, en mai, plus de 135 millions d'utilisateurs. Il faut cependant reconnaître que, aussi représentatif soit-il, cet échantillon n'est pas forcément représentatif des habitudes des utilisateurs de VOTRE site.

Il reste que ne pas utiliser Javascript réprésente de nombreux avantages :

  • Etre (presque) indépendant du poste client
  • Séparer contenu et présentation, donc permettre des refontes beaucoup plus rapides et aisées.
  • Etre accessible. Aujourd'hui, la loi l'impose aux administrations. Dans quelques années, ce sera le tour de tous... Pourquoi ne pas prendre le train tant qu'il ne roule pas à pleine vitesse ?
  • Javascript n'est vraiment pas simple à débugger à cause d'un manque de clarté des messages d'erreur
  • Faire des contrôles de saisie en javascript donne une fausse idée de vérification. Si Javascript est désactivé, ces contrôles s'avèrent totalement inefficaces.
  • Les visiteurs ayant désactivé Javascripts risquent de fuir le site à tout jamais.
  • En utilisant les CSS, on est certain d'avoir la même présentation à travers tout le site, et sur tous les navigateurs.
  • Une page avec des CSS est de 50% à 70% plus légère, donc plus rapide à charger.

Pour vous faire une idée de ce que cette désactivation du Javascript peut engendrer sur certains sites, voici la manière de procéder.

Pour Internet Explorer

Allez à "Outils" du menu principal
Choisissez "Options Internet..."
Allez à l'onglet "Sécurité."
Choisissez "Personnaliser le niveau..."
Rendez-vous à la section "Script" de la fenêtre de "Paramètres de sécurité"
Désactivez l'option "Active scripting".

Pour Firefox

A partir du menu "Outils", sélectionnez "Options..."
Cliquez sur l'onglet "Contenu"
Décochez la case "Activer Javascript"

Pour Opera

Allez à "File" du menu principal
Choisissez "Quick preferences"
Désactivez, la case "Enable javascript"

vendredi 2 juin 2006

Que voient les moteurs de recherche ?

Abondance, Brioude Internet et Raynette proposent depuis 2 ans un outil gratuit, nommé Spider Simulator, qui permet de voir en un coup d'oeil ce que les robots récupèrent de la page en venant l'indexer. Une façon assez astucieuse de se faire une idée précise du contenu de votre site pris en considération par les moteurs de recherche afin de l'optimiser. Même si cette application n'est pas toute jeune, rappeler l'existence de bons outils ne peut faire de mal à personne.

Son principe est simple : vous tapez l'URL de votre site (ou d'une page de celui-ci) et le site vous indique comment les robots indexeurs des moteurs le "voient". Vous avez accès par ce biais :

  • Informations sur la page : date du serveur et de la dernière modification du document, taille du document, type MIME, serveur utilisé et statut de réponse HTTP. Toutes ces informations sont fournies par le serveur Web sur lequel votre site est hébergé. La date de dernière modification est importante dans le cadre d'un référencement. En effet, plus vos pages sont mises à jour souvent, plus les délais entre deux visites des spiders des moteurs sont courts.
  • En-tête de la page : titre, balises meta "Description" et "Keywords". Le titre est l'un des champs les plus importants pour les moteurs de recherche. Les balises meta permettent de fournir des informations au moteur au sujet de la page. Même si leur importance est nettement moindre qu'autrefois, il n'est cependant pas inutile de les renseigner.
  • Informations sur les images de la page : nombre d'images et textes alternatifs utilisés (balise ALT). Cette balise est lue par les moteurs comme du texte normal alors qu'ils sont incapables d'interpréter une image.
  • Contenu textuel de la page tel qu'il est lu par les moteurs. Le texte est l'un des éléments déterminants pour que votre site soit bien référencé sur les moteurs de recherche.
  • Liens internes suivis par le spider. Ces liens vont permettre aux moteurs d'indexer la totalité de votre site... pourvu que les liens soient fait en HTML et non en JavaScript ou Flash.
  • Liens externes suivis par le spider. Votre site ne doit pas être un cul de sac. Proposez donc de bons sites bien choisis à l'avidité de vos visiteurs.
Sources : WebRankInfo

mercredi 31 mai 2006

Pas de quatrième place sur le podium

Selon une étude américaine menée conjointement par Iprospect et Jupiter Research en janvier 2006 et dont les résultats ont été publiés en avril, l'attitude de l'internaute face aux pages de résultats affichées par les moteurs de recherche montre clairement qu'il convient de veiller avec le plus grand soin au positionnement de son site. En effet, depuis 2002 et l'avènement de Google, les 2369 utilisateurs Web qui constituaient le panel de cette étude ont changé leur façon de traiter les résultats fournis.

Voici sommairement quelques uns des enseignements tirés :

  • 62 % des internautes n'utilisent que la première page de résultats pour effectuer leurs recherches. Il va de soi que cela renforce ce que les référenceurs n'arrêtent pas de répéter à leurs clients à propos de la pertinence dans le choix des mots clés.
  • 90 % ne dépassent jamais la troisième page de recherche
  • 82 % des testés préfèrent ajouter un mot clé à la requête s'ils ne trouvent pas de réponses à leur recherche, et ce sans changer de moteur de recherche. Cela semble indiquer une grande confiance des utilisateurs dans la pertinence des réponses fournies par leur moteur favori. Cela signifie également que toute personne qui souhaite optimiser son site doive le faire non pas sur un seul mot ou groupe de mots clés, mais bien sur plusieurs phrases significatives. Ce type de travail apporte des visiteurs qualitivement plus intéressants.
  • 36 % des internautes sont persuadés qu'une entreprise dont le site figure sur la première page de résultats est une entreprise qui domine son secteur d'activité. 39 % n'ont aucun avis à ce propos et seulement 25 % ne tirent aucun lien de cause à effet.

En conclusion, il est vital pour les sociétés qui veulent être certaines de leur visibilté de se situer, au moins, dans les 3 premières pages de résultats... A vos mots clés !