Divers Articles E-marketing
 
 

Liste des sources d'informations utilisées pour l'analyse Marketng des usage d'Internet :

A. T. Kearney
Bear Stearns
Bmrb International
CSA TMO
Canalys
Computer Economics
Computer Industry Almanac (CIA)
Continental Research
DFC Intelligence
Datamonitor
Deutsche Bank
Eurobarometer
European Commission
European Information Technology Observatory (EITO)
Forrester Research
Gartner Dataquest
GartnerG2
GfK Marketing Services
IDATE
Informa Media Group
International Data Corporation (IDC)
International Telecommunication Union (ITU)
Jupiter Research
London Business School
MORI - Market & Opinion Research International
MediaResearch
Morgan Stanley
Médiamétrie
NFO WorldGroup
NetValue
Netsizer: Telcordia Technologies
Nielsen//NetRatings
OECD
Office for National Statistics - UK
Office of Telecommunications (Oftel) - UK
Point-Topic
PricewaterhouseCoopers (PwC)
RIPE NCC
ResearchPortal.com
SESSI : Service des Statistiques Industrielles - France
Strategy Analytics
Taylor Nelson Sofres (TNS)
TeleGeography, Inc.
US Census Bureau
University of Cambridge - Judge Institute of Management
Wilkofsky Gruen Associates
Yankee Group
eMarketer
eTForecasts

E-Marketer

 
  avec Adcom  
 
Pour trouver un site : 3 possibilités
- connaissance du nom de domaine
- possession du lien
- utilisation d'un outil de recherche
La recherche d'un produit, d’une information, d'un site, d'une entreprise, d'un service, d'un événement sur internet s'effectue sur des sites spécialisés où se trouve concentrée, organisée l'information.
Appelés moteurs et répertoires, ces sites sont le point de départ pour toute recherche.
Votre site doit obligatoirement y être inscrit.
A. Les moteurs = bases de données organisées selon le contenu des pages.
• Mode d'alimentation et de sélection : automatique et/ou semi-manuelle

• Descriptif de fonctionnement : le moteur parcourt internet et indexe les pages qu'il rencontre. Il capte les mots-clefs se rattachant aux sites.
Exemple : sur le site d'un fabricant informatique, les mots importants vont être: ordinateur, fabricant, micro-ordinateur, informatique, matériel, périphérique, consommable,... Le moteur trouve ces mots dans les pages ou dans les balises méta, utilisées pour donner un résumé du site.

• Fonction du moteur : assistant de recherche. Lors de vos connections, le moteur vous propose d'effectuer une recherche basée sur un ou plusieurs mots-clefs.
Exemples : "ordinateur" ou "fabricant d'ordinateur", le moteur cherche alors dans sa base de données toutes les pages contenants les mots " ordinateur", "fabricant". Il classe ensuite les réponses par ordre d'importance, de pertinence, et met en avant la page qui répond le mieux aux mots recherchés. Cette classification, appelée "ranking" se fait par des critères propres à chaque moteur.

Exemple de moteur : altavista, hotbot, voilà, ...
B. Les annuaires (répertoires) = base de données organisées en
arborescence
• Mode d'alimentation et de sélection : manuelle

• Fonction : sérier tous sites qui leurs sont proposés. Les répertoires sont remplis humainement, les responsables du répertoire visitent le site, vérifient l'exactitude des données fournies, les indexent. Classement par sujet, pays, activités, domaines.
Exemple : le fabricant d'ordinateur sera classé dans la catégorie "entreprise, économie", sous-catégorie "informatique", 2ème sous-catégorie "fabricant informatique".

• Exemple d'annuaire: Yahoo.fr, Tiscali-nomade, Guide Aol, Indexa,...
A noter ! Approche QUALITATIVE


C. Les moteurs et annuaires spécialisés = bases de données organisées en arborescence sur un thème donné.
• Mode d'alimentation et de sélection : manuel ou automatique

• Fonction : sérier tous sites qui leurs sont proposés sur un thème donné. Ces outils sont une alternative à l'utilisation des outils généralistes. Peu connus, leur utilisation apporte pourtant une facilité dans la recherche d'informations car déjà ciblée.
Exemple : transport, bois, ameublement, médical, tourisme...


D. Les outils de recherches d’informations = logiciels ou site proposant une alternative pour vous aider dans vos recherches.
Exemples : méta-moteur, logiciel off-line, on-line

• Mode de fonctionnement : selon l’outil

• Fonction : utiliser les sources actuelles et vous sérier les réponses pour vous les présenter sous différents formats.

Le méta-moteur va interroger une sélection de moteurs et va retirer les doublons dans les réponses. Avec une interface web, il vous suffit de poser une fois votre requête sur le méta-moteur, il va ensuite poser cette question à 3-6-9 outils simultanément et vous donner les meilleures réponses reçues.

Les logiciels : le principe est le même : interroger différentes sources d’informations, analyser les réponses et vous proposer des options de sélections, filtres pour en retirer l’essentiel.

L’avantage de ces logiciels est qu’ils sont souvent développés pour vous guider dans le choix de la requête et dans la sélection des sources à questionner.

Quelques exemples d’outils :
Méta-moteur :
- metacrawler (www.metacrawler.com)
- thebighub (www.thebighub.com)
Vous trouverez une liste quasi exhaustive sur indicateur : www.indicateur.com/metamoteurs

Logiciels :
- Copernic (www.copernic.com) (payant et gratuit)
- StrategicFinder (payant et gratuit)
- Ixquick
- Kartoo (www.kartoo.com)


E. Les « human searchs »
- liste : voir page indicateur : www.indicateur.com/repertoires/human.shtml

Pour une mise en avant de votre site celui-ci doit être inscrit aussi bien dans les moteurs que dans les répertoires. Pour ce faire une démarche précise doit être réalisée dans ces bases de données, car les moteurs et répertoires n'intègrent pas systématiquement les nouveaux sites. L'adresse de votre site, votre activité, vos produits, .... doivent leur être communiqués.

Le référencement : un suivi permanent.
Les moteurs mettent à jour leur base de données.
Ponctuellement et de manière souvent aléatoire, les moteurs parcourent automatiquement votre site.
Si, lors de son passage, le robot ne peut parcourir votre site, quelque soit la raison :
- changement d'adresse d'une page
- serveur non disponible temporairement
- ralentissement du réseau
il effacera de sa base, et celui ci n'apparaîtra plus lors de recherches.
Ces mises à jour se font automatiquement par des logiciels qui ne vérifient pas nécessairement si l'incident est provisoire.
A l'inverse, il est judicieux d'exploiter les nouvelles informations présentes sur vos pages. Elles peuvent faire l'objet d'un référencement spécifique.

Exemple : événements, actualités, nouveau produit, ...

La visibilité de votre site :
Les moteurs analysent plus de 2 milliards de pages pour les plus importants, votre site va donc être comparé à ces nouvelles informations mises en ligne. Sa pertinence, vis à vis des mots-clefs va en être modifiée.
Exemple : il n'existe pas une seule page parlant de fabricants d'ordinateurs, mais plusieurs milliers. La plus pertinente aujourd'hui ne sera pas forcement la plus pertinente le mois suivant.

 
     
  Le fonctionnement d'un moteur de recherche :

Après avoir donné l'adresse de votre site par le formulaire "ajout d'url", le moteur de recherche visite votre url et enregistre toutes les pages qu'il va trouver par l'intermédiaire des liens.

Exemple, sur cette page le moteur va trouver et suivre le lien suivant : www.adcom.fr. Puis une fois sur la page d'accueil, il va suivre les autres liens, etc, etc. et ainsi de suite.
Pour faire ces enregistrements le moteur envoi un logiciel pour "surfer" sur votre site, ces logiciels sont appelés des ROBOTS (crawlers).

L'utilité des balises méta :
Lorsque les robots vont visiter votre site, ils privilégient certaines zones. Les balises en font parties. Elles permettent aux moteurs de :
- récolter de l'information
- traiter et comparer ces informations
- poursuivre leur parcour
L'incidence des balises dans le référencement :
- positionnement : bien que la plupart des moteurs de recherches ne prennent ou ne prendront plus en compte celles-ci à terme, elles conservent encore à ce jour un rôle pour le positionnement.
- description/visibilité : les moteurs exploitent les balises pour formater leurs réponses.
Ils y récupèrent le titre et la description.
Ces informations sont capitales: ces sont des facteurs de clics !
L'incidence des balises ne s'arrête pas à une considération technique.
C'est comment une balise ?
Voici les principales balises méta :
- balise mots-clefs (keywords) :
<meta name="keywords" content="Référencement, suivi, indexation, veille>

- balise description :
<meta name="description" content="référencement de sites, positionnement et suivi de sites sur mesure">
Vous rentrerez la description du site, faites un résumé cours concis, et explicatif du contenu, avec si possible une densité importante de mots clefs mais sans tomber dans l'excès.
Cette description non visible pour le visiteur, le sera pour les moteurs.
Remarque : Il arrive parfois de voir des pages ayant pour description "référencement, référencement, référencement, référencement, référencement de sites", pas très sérieux et pas efficace.
Ces balises sont à insérer dans le code html de vos pages. Au début du code, entre <head> et </head>.
Le code source :
Une fois les balises soigneusement réalisées, le résultat donnera ceci dans le code source :

<html>
<head>
<title>Référencement de sites web Adcom;</title>
<meta name="description" content="Site sur le référencement. Comment optimiser sa position dans les moteurs de recherche. Informations, explications et liens divers">
<meta name="keywords" content="balise méta, Référencement, suivi, indexation, veille de referencement, site, indexer">
</head>
Existe-t-il d'autres balises méta ?
Les balises méta sont réalisées par des groupes de travail sur internet. Une uniformisation est en cours mais il existe néanmoins une quantité impressionnante de balises, en voici un échantillon :

<HEAD>
<TITLE>Référencement de sites internet
<HTML LANG=fr>
<HEAD PROFILE="http://purl.org/metadata/dublin_core">
<META HTTP-EQUIV="Content-type" CONTENT="text/html;
charset=ISO-8859-1">
<META HTTP-EQUIV="Expires" CONTENT="+30">
<LINK REV=made href="mailto:ld@adcom.fr">
<META NAME="keywords" CONTENT="Référencement de sites internet suivi">
<META NAME="description" CONTENT="Référencement de sites internet - suivi">
<META NAME="rating" CONTENT="General">
<META NAME="revisit-after" CONTENT="15 days">
<META NAME="VW96.objecttype" CONTENT="business">
<META NAME="ROBOTS" CONTENT="ALL">
<META NAME="DC.Title" CONTENT="Référencement de sites internet">
<META NAME="DC.Creator" CONTENT="adcom internet">
<META NAME="DC.Subject" CONTENT="référencement de sites">
<META NAME="DC.Description" CONTENT="Référencement de sites internet - suivi">
<META NAME="DC.Publisher" CONTENT="adcom">
<META NAME="DC.Contributors" CONTENT="laurent doublier">
<META NAME="DC.Language" SCHEME="RFC1766" CONTENT="FR">
<META NAME="DC.Coverage.PlaceName" CONTENT="France, Normandie, Hérouville">
<META NAME="DC.Coverage.x" CONTENT="-1.2888">
<META NAME="DC.Coverage.y" CONTENT="-48">
<META NAME="DC.Coverage.z" CONTENT="1">
</HEAD>

On peut distinguer 3 grandes familles de balises :
- les metaname : les plus utilisées par les moteurs
- les meta http-equiv : peu courantes, peu utilisées
- et enfin les meta name DC : réalisée par le Dublin Core (initiale DC) qui réalise un travail de reflexion pour l'uniformisation des documents en utilisant ces balises comme fiche signlétique.
Balise spécifique : "nocache" pour Google et autres moteurs
Google enregistre vos pages et les garde en mémoire sur son serveur, pour en présenter une photographie dans les réponses.
Utilité : évite de proposer des pages inexistantes, erreur 404.
Pour empêcher Google d'enregistrer votre site en cache, vous devez insérer cette balise sur vos pages :
<META NAME="ROBOTS" CONTENT="NOARCHIVE">
Balise spécifique : <noembed>
Cette balise permet d'insérer du texte dans une partie flash d'une page, et invisible pour le visiteur.
Même principe d'utilisation que la balise <noframe>
<NOEMBED> et </NOEMBED>
Urls de référence sur le sujet des balises :

Vancouver : www.vancouver-webpages.com
Le DublinCore : dublincore.org/
Guide d'utilisation Dublin Core en français :
http://www.bibl.ulaval.ca/DublinCore/usageguide-20000716fr.htm
Navigateur utilisant la norme DC : Metabrowser
La norme PICS-LABEL: Platform for Internet Content Selection (PICS)
Cette norme permet l'utilisation de navigateur interdisant l'accès à certaines pages dans l'objectif de protejer les mineurs sur internet.
Pour les parents :
Sur ces pages vous trouverez la méthode pour "bloquer" le navigateur de votre ordinateur :
Pour NETSCAPE : home.fr.netscape.com/fr/communicator/netwatch et cliquez sur le bouton vert.
Pour Internet Explorer voir site RSAC puis dans faq voir la mise en place (en anglais)

Pour les webmasters :

C'est à vous d'insérer ces balises sur les pages à proteger :

• Exemple de balises picts :

<head>
<META http-equiv="PICS-Label" content='(PICS-1.1 "http://www.monsite.org" labels on "1994.11.05T08:15-0500" until "1995.12.31T23:59-0000" for "http://w3.org/PICS/Overview.html" ratings (suds 0.5 density 0 color/hue 1))'>
</head>
Pour un complément d'informations sur les balises PICS, voir le site du W3C pour les explications : http://www.w3.org/PICS/

 
   
  L'utilité du fichier "robots" :
Toutes les pages de votre site sont potentiellement "indexables". C'est à dire que toutes les urls peuvent être enregistrées.

Toutefois avec des FRAMES, des pages DYNAMIQUES, du FLASH, de sites marchands, il faut limiter le parcours des moteurs, leur interdire certaines pages.
Rien de plus pénalisant que d'arriver sur un fragment de page !
Exemple : absence de menu, absence de bandeau, absence d'image, ...
Le visiteur doit impérativement arriver par la porte d'entrée choisi
C'est quoi un fichier "robots" :
Il se présente sous un format texte (d'ou l'extension txt),pèse moins de 1 Ko.
Il se positionne à la racine du site, sur le serveur.
Exemple : www.adcom.fr/robots.txt.
Il n'en faut qu'un, inutile d'en mettre dans chaque répertoire.
Quel est le contenu de ce fichier ? :
Il faut indiquer ici les pages qui ne doivent pas être visitées par les robots des moteurs. La syntaxe est :

# robots.txt pour le site http://www.adcom.fr
User-agent: *
Disallow: /noel/
Disallow: /prive/

La ligne "User-agent : *" indique que tous les moteurs sont concernés.
La ligne "Disallow : /noel/" interdit l'accès des moteurs à tout le répertoire noel, toutes les pages sous celui ci ne seront pas indexées.
Quelques règles de base :
Vous pouvez interdire l'accès à certaines pages
Vous pouvez interdire l'accès à tout le site,
Cette commande permet donc de bloquer certains accès.
Un retour chariot est nécessaire en fin de ligne de commande.

Le texte original en anglais est disponible à l'adresse suivante :
www.robotstxt.org
Le site voilà de France Télécom donne aussi quelques explications à la page :
www.voila.fr/Informations/Moteur_guide/donnee_tech.html#four
Comment optimiser l'arborescence d'un site :
Pour des raisons de facilité de réalisation de ce fichier, il est préférable d'utiliser des sous-répertoires plutôt que de mettre toutes les pages à la racine. il vaut mieux faire :

www.adcom.fr/rep1/
www.adcom.fr/rep2/ etc
que de faire :
www.adcom.fr/page1.htm
www.adcom.fr/page2.htm etc

Ensuite, lors de l'utilisation de frames, pensez à mettre vos frameset (la page de cadre) dans un répertoire /framset/ qui sera visité par les moteurs et mettez les frames (pages qui composent la frameset) dans un autre répertoire /frames/ par exemple.

Le fichier robots.txt sera alors :
# robots.txt pour le site http://www.chezmoi.fr
User-agent: *
Disallow: /frames/

Seules seront visitées les pages de frameset, la page d'accueil, les éventuelles pages satellites.

Attention !! :
En règle générale et d'après expériences, presque tous les moteurs de recherche comprennent ce fichier.
Lors de la soumission d'une page sur un moteur celui-ci va automatiquement vérifier la présence d'un fichier "robots" d'interdiction.

Cette technique n'est pas obligatoire, vous pouvez aussi utiliser la balise méta suivante :

<metaname="robots" content="noindex, follow"> n'indexe pas la page, suit les liens
<metaname="robots" content="noindex, nofollow"> n'indexe pas la page, ne suit pas les liens
<metaname="robots" content="index, follow"> indexe la page, suit les liens
<metaname="robots" content="index, nofollow"> indexe la page, ne suit pas les liens.

Ici il faut le faire sur toutes les pages... attention aux gros sites.

 
   
  Le principe :
Il existe de multiples façons d'optimiser son référencement.
Pas de recettes miracles, juste rigeur et bon sens !
CHOISISSEZ DES METHODES SIMPLES MAIS EFFICACES
Chaque site a sa personnalité, son optimisation. La base quant à elle revient toujours. Il y a un minimum à réaliser, le voici :
Les titres :
C'est important pour 2 raisons : les moteurs vont retenir les mots clefs présents dans celui ci. C'est, de plus, ce que l'on va voir en premier dans les résultats à une requête.
Les pages :
Le contenu de la page, l'utilisation des frames, les caractères, les images, l'importance du texte, ... tout est analysé par le robot. Il est vrai qu'une page en texte comme celle ci est mieux référencée qu'une page ne comportant que des images.
Les balises méta :
De plus en plus, les moteurs de recherche ne prennent plus en considération les balises "description" & "keywords". Inutile donc d'avoir une attention particulière à ces 2 balises. A noter que la balise meta description peut avoir, dans certains cas, une utilité de présentation dans les pages de résultats.
Vous trouverez sur cette page, une présentation de ces balises.

 
   
  Toute l'attention sur le choix des mots clés doit être apportée dès la conception du site.
Bien distinguer le "on" et le "off-line"
Atteindre sa cible sur internet necessite souvent une approche et des méthodes différentes des supports "off-line"
Ce choix déterminera votre futur positionnement dont dépend directement votre audience et votre trafic.
La base de votre promotion
Comment les choisir ?
Cela peut sembler simple : je vend des chaussures sur internet donc c'est "chaussure" qui va être important ... OUI mais ce n'est pas tout ... chaussures, chaussures sport, chaussures femmes, shopping chaussures, chaussures hommes... etc, sont autant de combinaisons génératrices de trafic.
Pour faire le choix des bonnes combinaisons il faut étudier ce que "nous", internautes, nous utilisons le plus souvent, le plus intuitivement sur les moteurs.
Chaque combinaison, mot aura une incidence sur l'optimisation et donc le placement de votre site sur les annuaires, moteurs, portails.

Où trouver ces informations ?
Sur les moteurs et annuaires évidement. Certains donnent en temps réel les questions, mots clés tapés par les internautes.
Pour avoir une liste détaillée, allez sur indicateur.com à la page : keywords.

Avec l'arrivée des acteurs de positionnement payant, certaines informations quantitatives arrivent sur le marché. Ces acteurs (Espotting, Google, Overture) indiquent le nombre de fois où la requête a été tapée.
Aussi, pour un mot clé, vous aurez en réponse, les combinaisons complémentaires pour ce mot ainsi que le nombre de recherches associées à ce mot.

Découvrez les Générateurs de mots clés sur Indicateur.com

 
   
  L'histoire .. :
Au début, il y eut un site, puis un autre jour, il y eu 2 sites, puis 3, 4, 100, mille, 1 million, 2 millions ...
Au début pour ranger les premiers 100 sites, il y eu yahoo, puis un autre, puis un moteur, puis 2, puis 100 ... etc.
Le web devint alors ce qu'il est, ce qu'il sera : un flux croissant d'informations entrant et sortant véhiculé par un nombre de sites en perpétuelle augmentation.
Quand nous recherchons de l'informations, un site, nous utilisons ces moteurs. Malheuresement ils ne peuvent donner sur la première page toutes les réponses.
Ils effectuent alors un classement : le "ranking", propre à chaque moteur.
Certains vont privilégier le titre de la page, la plupart le texte, d'autres les mots-clefs, de plus en plus la totalité.
Une parfaite connaissance de ces méthodes peut entraîner des abus. Il est plus sympa d'apparaître en première place plutôt que sur la 100ème.
Exploiter les moteurs en réalisant des pages "suradaptées" à leur méthode s'appelle le "spamindexing".

• Exemple : je sais qu'un moteur de recherche porte beaucoup d'importance au nombre de fois où le mot est cité dans le titre : le titre de ma page va être : optimisation - optimisation de pages - optimisation. Petite tentative de spamindexing.

Les anciennes méthodes, les plus efficaces, il y a quelques années étaient de faire du texte blanc sur fond blanc, cela permettait de placer des mots-clefs sur toute la page sans gêner le visiteur. Méthode inutile maintenant car les moteurs analysent de plus en plus le code HTML afin de débusquer ces méthodes. ici c'est simple, car le code donne :
<font color="#FFFFFF">blanc</font>
et le fond de page donne <body bgcolor="#FFFFFF">
les 2 valeurs sont identiques.


Existe-t-il encore des méthodes de spamindexing ?


Il y a toujours des méthodes, trucs, astuces, pour tromper les moteurs.
L'un des meilleurs exemples, l'utilisation trop importante des pages alias/satellites, sites gratuits, noms de domaine multiples. (Voir page à ce sujet).
Mais les méthodes d'anti-spam des moteurs sont de plus en plus efficaces. Et heureusement, car il est vrai que dans certains domaines, certains mots-clefs, il y a une telle concurrence, que les webmasters n'hésitent pas à utiliser des méthodes très, très pointues ...
J'utilise comme mots clefs, les noms de marque de mes concurrents, est-ce du spamindexing ?
Dans l'absolu, cela n'est pas considéré comme du spamindexing d’un point de vue
“ moteurs ” mais peut vous amener au tribunal si votre concurrent s'en aperçoit.
La vérification de ces pratiques est très simple. Aussi il vaut mieux éviter.
La veille, l'audit de référencement concurrentielle le permet.

 
   
 

Il n'est pas évident de bien référencer un site.
Beaucoup de critères rentrent en jeu (technologies, concurrences, importance et thème du site, ... ).

Quand va apparaître mon site sur les moteurs et annuaires ?

Et cette question intervient avant de se dire : est-ce qu'il va apparaître en bonne position ?

Voici quelques indications pour vous rassurer et vous éviter de trop forcer les moteurs et annuaires.

Considérons ici que vous avez réalisé l'optimisation du site, que tout est en ligne et que vous avez inscrit celui ci sur les principaux moteurs, annuaires, répertoires (si vous cherchez une liste il existe indicateur.com)
A. Les moteurs
Comme vous avez pu le constater dans la fiche de présentation du référencement, les moteurs fonctionnent de manière automatique. Cela veut dire qu'ils sont programmés pour visiter vos pages. Ils sont programmés pour :
- venir visiter le site tous les jours (ça n'existe pas encore)
- venir une fois, deux fois, trois fois par mois, trimestre, semestre. Cela dépend de chaque moteur et du nombre de soumissions reçues
et exception qui confirme la règle :
- certains sont programmés pour ne jamais venir ...
Les informations ci-dessous sont des données prises sur les moteurs directement ou par expérience personnelle. Ils ne peuvent pas être d'une extrême précision, surtout dans le temps.

• Quelques exemples de temps d'indexation :(25-05-02)
- Altavista.com : le temps d'indexation est de 1 à 3 mois.
- Voilà : aléatoire mais environ 15 jours pour la page soumise.
- Alltheweb : environ 1 mois mais revisite très souvent les sites.
- Goggle: semble s'habituer à une mise à jour mensuelle, quotidienne pour certains sites de contenu.
Attention : il peut se passer d'une semaine à 1 mois entre le moment où le moteur visite votre site et sa réelle présentation dans les réponses.
B. Les annuaires
Cas bien particulier dans cette notion de "temps d'indexation" : les annuaires. Ils sont "humains" donc le temps de prise en compte va dépendre de la charge de travail de ces personnes.
Appelés "éditeurs", "surfeurs", ils vont visiter votre site et choisir d'indexer ou non votre site sur leur annuaire.

• Quelques exemples de temps d'indexation :(22-06-02)
- Yahoo : temps d'indexation minimum 2 mois environ, obligatoirement payant pour les sites pro
- Indexa : 2 semaines
- Guide voilà : 3 mois, de plus en plus aléatoire avec l'apparition du payant
- Nomade : idem Guide Voilà
- Guide Lycos : pas de chance d'apparaître dans l'annuaire sans passer par l'offre payante.

C. En règle générale... ou en particulier...
Globalement et par expériences, il existe une période d'à peu près 3 mois indispensable au premier "referencement" du site. Suite à cela, il ne vous reste plus qu'à vérifier le positionnement du site et d'optimiser les pages en fonction de ces résultats.
Attention, les délais évoqués ci-dessus correspondent au temps d'indexation naturelle, les formules payantes ne sont donc pas prises en compte.

 
   
  Enlever une page d'un moteur :
Généralement lorsque vous souhaitez enlever une page d'un moteur il suffit de supprimer la page de votre serveur et la re-soumettre aux moteurs. Ils visiteront cette page, ne la trouvant pas, elle sera éliminée de l'index.
Si vous souhaitez garder la page mais qu'elle disparaisse des moteurs, utilisez alors la balise :
<metaname="robots" content="noindex, follow"> ou <metaname="robots" content="noindex, nofollow"> voir page robots.txt
Enlever un site de tous les moteurs :
Méthode rapide et facile à mettre en place : le fichier robots.txt à mettre à la racine avec la syntaxe :
User-agent: *
Disallow: /
Enlever un site sur les annuaires :
Contactez le webmaster ou utilisez les formulaires. Cela prend presque autant de temps que de le référencer. Sur certains grands annuaires, il faut compter plusieurs mois, plusieurs mails.
 
   
  La problématique :
Vous avez sûrement constaté que le référencement de pages dynamiques, de pages de bases de données peut poser quelques problèmes d'indexation sur certains moteurs de recherches.
Même si la plupart des moteurs indexent parfaitement ces urls, quelques préparations sont à prendre en compte pour les autres. Vous trouverez ici quelques éléments ...
Base de données contre bases de données :
Si vous rencontrez ce souci de soumission auprès de quelques moteurs, cela résulte d'une solution simple : en effet, cela revient à incorporer une base de données dans une autre base de données.
Les moteurs de recherches utilisent des logiciels (robots) pour indexer vos pages. Ces robots ont soient du mal à suivre les urls appelées "exotiques" qui comportent des éléments propres aux bases de données, soient les robots sont paramétrés pour ne parcourir qu'un nombre données de pages.

• Exemple d'url pouvant poser problème: www.adcom.fr/dev/AddUrl?pg=SubmitUrl.html&svx=CT.
Les principaux caractères gênant dans les urls sont : ? ; & ! =.

L'approche :
Il vaut éviter de mettre en place des solutions lourdes et couteuses pour essayer de contourner cette problématique.
Nous pouvons espérer que l'ensemble des moteurs de recherches résoudront l'indexation de contenus dynamiques.
Il faut néanmoins prévoir, à la base du développement, et de la conception de l'arborescence du site, un espace pour les solutions qui seront adoptées notamment pour faciliter le parcours des robots.

Les solutions ?
Si vous souhaitez quand même "cacher" le dynamique aux moteurs, voici 2 alternatives:
• 1ère alternative : création de pages pour le référencement.
Attention, ce principe contient des inconvénients, il faut procéder à la création de pages satellites, allias; celles-ci ne sont pas la meilleure façon de réaliser un référencement. Entre alternative technique et tentative de spamindexing, cette solution a ses détracteurs et ses professionnels.

• 2eme alternative : création de framesets.
Celles-ci doivent englober la partie dynamique du site. Cela permet l'indexation de framesets en html. Vous pouvez mettre ici de l'information sur le contenu du site en texte, soit dans la partie noframes soit dans les frames.
Conclusion :
Si l'on prend les principaux moteurs de recherche générateurs de trafic, le dynamique n'est pas un frein. Il est alors inutile de mettre en place des solutions complexes et chères.
Si vous rencontrez un problème d'indexation,

 
   
  Description des pages alias / satellite :
Ce sont des pages supplémentaires à votre site original, dans l'objectif de les optimiser pour le référencement.

• Par exemple : www.adcom.fr/pages.htm ou www.adcom.fr/page2.htm. La page1 : optimisée pour le mot : référencement, la page2 pour le mot : recherche d'information, etc.
A quoi sert les pages alias / satellite :
C'est la possibilité de contourner des impératifs techniques dûs au graphisme d'un site. Si vos pages sont réalisées en “ flash ” (incompréhensibles par les moteurs), cela vous permet d'optimiser le référencement. Mais c'est surtout la possibilité d'améliorer un positionnement sur les moteurs de recherches.
Est-ce de l'abus, du spamindexing ?
L'utilisation de ces pages satellites n'est pas indispensable. Il est possible de faire un très bon référencement sans pour cela passer par cette méthode. De plus en plus, les moteurs trouveront des parades à l'utilisation de ces pages, il faut savoir qu'il y a de l'abus... donc de la répression.
L'inconvénient de ces pages satellites :
Le principal inconvénient est le parcours du robot sur le site. Les pages satellites ne sont pas forcément liées entre elles. Et certains moteurs peuvent pénaliser la ressemblance trop proche du code html des pages.

Il faut bien réfléchir à la méthode qui sera utilisée, et penser qu'il est facile de tomber dans le spamindexing avec ces pages.

 
   
  Utilité du fichier log :
Toutes les activités de votre serveur sont enregistrées dans un fichier de consultations appelé fichier log. Les informations de ce fichier reflètent la vie de votre site.
Comment se présente un fichier log :
• format : texte
• contenu : ligne de code
• exemple : une ligne de ce fichier :
search.pa-x.dec.com - - [24/Jan/2001:04:39:41 +0100] "GET /robots.txt HTTP/1.0" 200 649 "-" "Mercator-1.0"
Quelles informations peut-on trouver ?
Elles sont de 2 types : techniques et marketing
1. Les informations techniques :
vous trouverez comme informations :
• l'adresse IP de l'internaute
• la trace laissée par les moteurs
• la configuration de l'internaute (navigateur, OS, taille écran, ...)
2. Les informations marketing :
• le nombre de pages vues
• les sites "referers" qui indiquent d'où proviennent vos visiteurs
• le parcours de l'internaute sur le site (page d'entrée, page de sortie, ...)
Pour le référencement, quel est l'intérêt d'analyser ces fichiers ?
Cet intérêt est PRIMORDIAL. Sachez, qu'avec une bonne analyse, vous pourrez découvrir des informations sur la qualité de votre référencement.
Car :
- la provenance des visiteurs vous indiquera les outils de recherches utilisés
- les mots clés vous permettront d'identifier le bon positionnement de votre site
- le trafic donnera une indication sur la bonne adéquation entre "positionnement et rang de votre site" sur les moteurs
L'analyse des fichiers log :
Il y a 2 méthodes d'analyses : soit automatiquement par logiciel, soit manuellement.
1. Les logiciels d'analyse de fichiers log :
Comme nous l'avons vu, ces fichiers se présentent sous la forme de lignes de codes laissées sur les serveurs. Pour bénéficier d'une présentation plus digeste, certains logiciels ont été conçus pour faire une synthèse graphique des données.
• Emplacement : logiciel à installer sur le serveur ou sur votre ordinateur
• Prix : gratuit et jusqu'à plusieurs milliers de francs
• Exemple : Webtrends, Analog,
2. L'étude manuelle :
Il faut savoir que vous ne découvrirez que peu d'informations supplémentaires en comparaison des rapports édités par les logiciels.
D'un point de vue "administration d'un site", nous vous conseillons d'utiliser des logiciels de traitement qui fournissent généralement de bon rapports.
Sources :
Les sites des logiciels :
- Webtrends : http://www.webtrends.com
- Analog : http://www.statslab.cam.ac.uk/~sret1/analog/
- Webalyser : http://www.webalyser.com/
Pour une analyse personnalisée de vos fichiers logs,
 
   
  Composante essentielle d'un site, le trafic mérite une attention toute particulière en terme d'analyse.
L'analyse
Différentes possiblités vous sont offertes pour celle ci :
1. L'analyse des fichiers logs :
Pour analyser vos fichiers logs, plusieurs outils sont disponibles, cf : fichiers log.
2. Les marqueurs "on line" :
Le principe est simple : analyser votre trafic en temps réel.
La mise en place consiste à insérer sur vos pages des lignes de codes qui enverront l'informations à un serveur qui enregistrera l'information :
Méthode : un internaute affiche une page de votre site, le marqueur se déclenche et comptabilise l'information sur le serveur du service.
Avantages :
• mesure directe de l'information
• mise en forme automatique de l'information
Inconvénients :
• il faut marquer toutes les pages : presque impossible sur de gros sites
• généralement, peu de données sont analysées
Les marqueurs :
- XITI : http://www.xiti.com/
- Estat : http://www.estat.com/

Pour une analyse personnalisée de votre trafic
 
  OUTILS  
  Nous avons sélectionné pour vous des outils et sources d'informations grâce auxquels :


- vous pourrez recouper les informations contenues dans ce site
- forger votre culture
- vous former et vous tenir informés en permanence
- gagner du temps

Cet assortiment de sites, de listes, d'applicatifs, .... n'est pas exaustif.

Faites nous parvenir vos suggestions :

 
   
  Vous trouverez listé des scripts divers et variés utiles pour le référencement.
Certains vous permettront d'organiser la navigation de vos visiteurs mais aussi de préparer le parcours des moteurs.
C'est quoi un script ?
Il s'agit de quelques lignes d'instructions à insérer dans le code html de vos pages.

A quoi ça sert ?
Ces lignes de code donnent des instructions aux navigateurs.
Elles permettent entre autre de " redimensionner les espaces, faire de la mise en forme, ouvrir de nouvelles fenêtres, afficher des pages spécifiques, etc.) Vous découvrirez que ces lignes de codes servent aussi à contrôler le cheminement des robots.
Script de reconstruction des frames :
<SCRIPT Language='JavaScript'>
<!-- // Teste si la page doit être dans une frameset
if (parent.frames.length=="0") parent.location.href="index.htm"// -->
</SCRIPT>

Note : "index.htm" indique l'adresse de la frameset.
Scripts de redirection automatique :
Ces scripts sont une alternative à l'utilisation de la balise meta de redirection

<script language="Javascript">
ID=window.setTimeout("window.location='nouvellepage.htm'",2500);
</script>

Note :
- "nouvellepage.htm" indique la page de destination
- 2500 = temps d'attente en millisecondes avant de changer de page
<script language="JavaScript">
document.location.href="../default.htm"
</script>
default.htm indique la page de destination.


Pour la partie cloaking, nous vous invitons à visiter la page de présentation disponible sur la page Expertise/méthodes

 
   
  C'est quoi un robot ?
Les moteurs de recherches utilisent des logiciels pour parcourir internet et alimenter leurs bases. Ces logiciels sont appelés des " robots "
Ces outils " lisent " vos pages et les enregistrent, les indexent selon différents critères propres à chacun d'eux.
Comment les connaitre ?
Ces robots, en arrivant sur votre site, laissent une empreinte sur votre serveur dans le fichier log. Leur passage est repérable par une "signature" propre à chacun.

• Exemple : altavista a nommé entre autre " mercator " un de ses robots.
Pour inktomi c'est " slurp ", "googlebot" pour google, etc.

Qui utilise des robots ?
En premier lieu, les moteurs tels que Altavista, fast, hotbot.
Mais nous remarquons désormais d'autres familles, telles que :
- les systèmes de veille (surveillance de pages)
- les robots universitaires en phase de tests
- des sociétés privés pour alimenter des extranet ou intranet
- des organismes publics, gouvernementaux de surveillance
- des robots aspirateurs d'adresses mail

 
   
  1. Les méta-répertoires :
Indicateur.com :
Annuaires, moteurs de recherches sur internet. Informations et actualités. Toutes les sources d'informations qualifiées et classées en catégories. Liste de diffusions sur les nouveaux outils.
www.indicateur.com
Enfin :
Liste des outils de recherches francophones. Classement par catégories. Edite " chasseurs de moteurs ", lettre mensuelle sur les nouveaux outils.
www.enfin.com
Beaucoup :
Liste internationale d'outils de recherches.
www.beaucoup.com

2. Les méta-moteurs :
Copernic :
Logiciel installé sur votre ordinateur et qui recherche sur une liste de moteurs classés en catégories les requêtes que vous lui demandez.
Avantages : permet de chercher sur plusieurs outils, d'avoir une synthèse des réponses, un classement sous format html.
Version gratuite et versions payantes.
www.copernic.com
Strategic Finder :
De la société Digimind, 4000 bases de données disponibles dans des patchs en options. Une version gratuite est disponible.
www.strategicfinder.com

Trouvez :
c'est un site méta-moteur. Principe : vous faites une requête et "trouvez" va chercher sur les différents moteurs, annuaires. Les réponses sont classées par pertinence.
www.trouvez.com

 
   
  Avant-propos :
Les applicatifs que nous vous proposons ci-dessous ont pour vocations de vous simplifier la vie.

Attention ! : beaucoup n'ont que le mérite d'exister. Ils ne sont en rien LA solution de votre référencement. Ils ne peuvent se substituer à une analyse personnalisée. Tout au plus peuvent-ils vous aider dans vos vérifications.

Le référencement en kit n'existe pas !
Création de Votre fichier robots.txt
Ce petit logiciel vous permet de préparer et créer le fichier robots.txt que vous devez utiliser pour votre site.
4 versions du logiciels sont disponibles : 1 complète payante avec version d'essai, puis 3 versions avec des options différentes.
www.rietta.com/robogen

Note : pour plus d'explications : Le fichier robots.txt
Vérification de la syntaxe de votre fichier " robots.txt "
Sur cette page vous trouverez un applicatif qui se connectera sur votre site et vérifiera le contenu de votre fichier robots.
www.searchengineworld.com/
Création de meta tags :
MetaTagBuilder : applicatif en ligne, simple d'utilisation.
www.metatagbuilder.com

Brioude : génération automatique de balises meta.
www.brioude-internet.com/generateur.html
Vérification de meta tags :
Websitegarage : l'un des plus anciens site pour la vérification de différents éléments de vos pages (balise, texte, image, code html, etc.)
www.websitegarage.netscape.com

Simulation de la visite d'un robot :
Ce site vous permettra de simuler le passage d'un moteur sur votre site, et la présentation qu'il donnera à vos informations.
Attention ! les résultats donnés ne prennent en compte qu'un certain type de moteur, et ne donne qu'une moyenne, certains robots réagiront différenements.
Site search engines simulator : delorie.com/web/ses.cgi

Logiciels de référencement :
Le logiciel de référencement automatise presque toutes les taches. Vous entrez une fois les informations puis tout est envoyé aux moteurs et/ou aux annuaires.
Avantages : gain de temps, rapidité.
Inconvénients :
- susceptibles d'être détecté et traité différemment par les moteurs.
- comme tout logiciel dans ce domaine, nécessite une mise à jour régulière des paramètres
- ce paramètrage n'étant pas fait au jour le jour, les résultats fournis posent des problèmes de fiabilité.
- assurez-vous d'avoir la dernière mise à jour
- ces outils sont très limités. Ils n'exploitent pas certaines informations clés.

Exemples :
- ils ne détectent pas les real names
- ils ne font souvent pas la différence entre un résultat yahoo ! et un résultat yahoo ! Google,
Bref, très souvent, ils ne traduisent pas la réelle visiblité du site sur la page. Vous pouvez être annoncé en première position sur un moteur et être en réalité en bas de page. (Lycos et son link popularity, réponse annuaire, réponse moteur).

Search Engine Commando :
C'est un des logiciels les plus complets en quantité d'outils de recherches disponibles.
www.searchenginecommando.com (anciennement TopDog)
WebpositionGold :
Logiciel surtout axé sur les outils anglophones/US, l'applicatif de génération automatique de pages optimisées est à proscrire absolument. Bon rapport de positionnement.
www.webpositiongold.com


Vérification de positionnement :
Spidetracker :
propose la vérification de votre positionnement sur les principaux outils de recherche francophones et internationaux. Demo gratuite, ensuite prestation payante sous forme d'abonnement.
http://www.spidetracker.com/

Did-it :
permet la vérification gratuite à partir d'une liste de mots clés. Indiquer votre url, vos mots : réception du rapport par mail.
Avantages : c'est en ligne, gratuit, assez bon résultats
Inconvénients : résultats longs à arriver, problème de positionnement dû à l'automatique
www.did-it.com

 
   
  Les listes de l'environnement des moteurs de recherches et du référencement :


• Abondance :
Actualité des outils de recherches, hebdomadaire.
www.abondance.com

• Indicateur :
Liste du site Indicateur.com
www.indicateur.com

• Abc-netmarketing :
Liste modérée par Bertrand Barthelot
www.abc-netmarketing.com

• Référencement :
Liste de discussions, parle du référencement francophone.
www.egroups.fr/referencement/

• Motrech :
Liste de discussions, environnement des outils de recherches.
www.egroups.fr/motrech/

• I-search :
Liste modérée par Detlev Johnson et édité par Audettemedia
Vraiment intéressante, cette liste de questions/réponses donne des retours d'expériences sur les outils de recherches et la promotion d'un site. En anglais.
www.audettemedia.com

• Veille :
liste de discussions, gérée par Carlo Revelli de Cybion, société de recherche d'informations et de veille sur Internet.
www.veille.com/listes_discussion/

 
   
  Loin de nous l'idée de vous inciter à utiliser ce mode de référencement.

Faites le vous-même !
Nous vous l'assurons : même si vous ne voulez pas faire appel à un professionnel, vous gagnerez en temps et en éfficacité en :
- vous informant et vous documentant, nottament sur les listes
- réalisant vous même et manuellement les soumissions sur les outils
Une bonne occasion de vérifier que tout est en ordre !

Néanmoins, à destination de ceux pour qui la tentation est trop forte, ceux qui sont dans la recherche du quantitatif gratuiit à tous prix, voici un premier lien.

AddMe:
Propose des outils et applicatifs pour soumission gratuite sur les moteurs
http://www.addme.com/

 
   
  Cette notion de "standard" regroupe l'ensemble des offres du marché dont le shéma technique et économique repose avant tout sur des concepts de "package", quantité, ...

Généralement, cela se traduit par la facturation à la page, à l'outil, aux mots clés.

Incontestablement, cette approche est nécessaire pour cadrer et délimiter les relations commerciales entre un acheteur et un vendeur.

TOUTEFOIS, et trop souvent, ces offres standardisées sont trop paramètrées. Leur présentation correspond essentiellement à des impératifs marketing et commerciaux qui ne prennent pas en compte l'ensemble du site, ses spécificités, son contenu ...

Constat : inadéquation entre les attentes exprimées par rapport aux objectifs fixés, et les résultats obtenus.

Trop standardisé peu personnalisé = faible valeur ajoutée / faible rentabilité

 
  En relation avec notre partenaire :  
     
 
 
     
 
 
  Indicateur vous propose un dossier spécifique sur la veille.

Qu'elle soit stratégique, concurrentielle, technologique ou référentielle, la veille est plus que jamais un poste indispensable.
Elle est à la fois un bouclier et une arme pour les entreprises.

Pour mieux cerner les enjeux, comprendre ses principes, apprécier son impact, nous avons sélectionné sur une page les liens indispensables pour appréhender ce domaine.

Sites d’explication, sites de contenus, portails et annuaires sur la veille, forums et outils, retrouvez les meilleures adresses sur la page Veille Indicateur.

http://www.indicateur.com/Doc/veille.shtml

 
     
  Nouveau moteur interne ,
Avec la solution Synomia

Indicateur vous propose depuis ce matin un nouveau moteur pour la recherche par mots clés sur notre site grâce à la solution Synomia.

Voici en quelques mots les capacités et options du moteur.

Les recherches se réalisent par mots clés avec ou sans les opérateurs booléens.

Suite à une requête, les liens de la zone "Pour affiner votre recherche" vous permettront de reformuler, compléter les résultats.

Les chevrons dans cet encadré vous donnent différentes possibilités supplémentaires de requêtage.

Par exemple, la requête "moteur" vous donnera en requêtes associées :
inscription payante - moteur multimedia - moteur cinéphile - moteur de recherche - moteurs et annuaires - annuaire de recherche - nouveau moteur - liens sponsorisés - principaux moteurs - moteur interne - positionnement payant, …
En cliquant sur ces termes, la recherche sera reformulée.

A propose de Synomia :

La société Synomia lance en France une offre très innovante de recherche sur site web. Basé sur une technologie linguistique et syntaxique totalement automatique (fruit de 10 ans de recherche au CNRS) et sur un mode de fonctionnement à distance (ASP), Synomia est en mesure d'offrir un moteur intelligent à tout type de site web. L'offre se met en place très facilement, et fournit de manière totalement automatique, une assistance contextuelle à la recherche.

Pour découvrir les quatre familles de produits:
Site VISIT, Content EXPLORER, Portal SEARCH et Custom SEARCH
nous vous invitons à visiter le site : www.synomia.fr

Contact Synomia :
Ludovic Leve
ludovic.leve@synomia.fr
3, rue Nationale
92100 BOULOGNE BILLANCOURT, France
Tel: 33 (0) 1 46 10 06 44

URL :
http://www.indicateur.com/

 
  Un moteur réellement innovant


Les solutions Synomia s'adressent aux organisations et aux sites Internet qui sont soucieux de satisfaire leur audience et qui cherchent à capitaliser leurs efforts éditoriaux et promotionnels par une mise en valeur optimale de leur contenu.

Synomia se distingue des solutions de recherche traditionnelles à la fois par la qualité de l'assistance fournie aux utilisateurs, et par sa grande simplicité d'administration, le service étant intégralement automatisé.


Puissance de la Linguistique et Robustesse
Trouver plus vite et plus facilement grâce à l'assistance intelligente...

Satisfaction, Fidélisation, Rétention
Fidélisez vos visiteurs avec une expérience unique de navigation...

Simple et immédiatement disponible
Avec l'ASP, oubliez les contraintes techniques: une ligne de code suffit pour intégrer Synomia...

Economique et sans investissement
La vocation de Synomia est de prendre à sa charge les investissements dans la technologie afin de rendre ses solutions accessibles au plus grand nombre d'entreprises ...

 
  Puissance de la Linguistique et Robustesse
 
  Trouver plus vite et plus facilement grâce à l'assistance intelligente

Inconvénients des moteurs de recherche de site traditionnels

La majorité des internautes souhaite accéder au contenu d'un site grâce à un moteur de recherche (mode search), là où seulement une minorité préfère le mode consultation par la structure des menus et des répertoires (mode browse). Ce n'est pas si étonnant: il est naturel d'imaginer pouvoir trouver l'information plus rapidement avec un moteur, parce que cela paraît plus facile et spontané.

Or, chercher au sein d'un site peut vite s'avérer une tâche ardue pour la majorité des internautes, non-aguerrie aux fonctionnalités avancées des moteurs de recherche. La recherche par mot clé produit en effet généralement un nombre trop important de résultats, qui par ailleurs ne sont pas tous pertinents pour la recherche. Le manque d'intelligence des moteurs actuels se traduit également par l'incapacité à étendre une recherche de manière efficace à des termes liés, auxquels l'utilisateur n'a pas pensé. Par exemple des termes synonymiques ("microprocesseur" et "CPU"), des variations de genre ("nouveau" et "nouvelle"), des variations de nombre ("thème" et "thèmes").


"Des obstacles d'ordre techniques, économiques et fonctionnels..."

Les moteurs pour site les plus rudimentaires présentent les inconvénients qui caractérisent la première génération d'outil de recherche: ils reposent exclusivement sur l'utilisation de mots clés en mode plein texte. Leur pauvreté tant dans la recherche que dans l'administration implique des contraintes élevées - et souvent sous estimées - d'installation et de maintenance.

Certains moteurs de site proposent l'intégration de dictionnaires de synonymes pour aider à étendre une recherche de manière automatique. Or, les dictionnaires de synonymes ont par définition une couverture limitée, en particulier pour des domaines spécialisés, et il est d'autre part humainement et économiquement impossible de les maintenir à jour.

Les plus récents moteurs de recherche issus du web proposent à l'internaute une assistance à la reformulation basée sur des algorithmes essentiellement statistiques. Ces outils sont pertinents et performants parcequ'ils traitent des volumes considérables (de plusieurs millions à plusieurs milliards de pages). Dès qu'il s'agit de rechercher dans le contenu d'un seul site (de quelques dizaines de pages à quelques centaines de milliers) la technologie de ces moteurs ne permet ni de fournir d'assistance performante, ni de couvrir les informations insuffisamment représentées dans les documents (signaux faibles).

Enfin, la plupart des moteurs sémantiques ou linguistiques issus des intranets d'entreprise sont inaccessibles à la grande majorité des sites web. Ils sont complexes dans leur fonctionnement et il est très difficile pour un administrateur non-spécialiste de les maîtriser, si ce n'est au prix de modifications majeures et coûteuses, et avec la contrainte d'une maintenance permanente. Leur couverture est forcément limitée à des domaines particuliers, puisque leur intelligence nécessite une spécialisation par dictionnaire, et leur coût de configuration et de fonctionnement est tel qu'ils sont en fait très peu utilisés.

Enfin, pour les sites web n'ayant pas recours à un moteur interne, le réflexe premier de l'administrateur est de structurer l'information disponible, afin d'en offrir un accès logique. C'est bien l'objet des menus et des rubriques. Il est malheureusement difficile de classifier l'intégralité de l'information présente, ou tout au moins avec un niveau de détail suffisant, ce procédé étant coûteux et forcément répétitif. C'est d'autre part ignorer la demande croissante des visiteurs pour la fonction search.


Ce qu'apporte Synomia

Synomia est la première approche linguistique au service de la recherche au sein d'un site. Elle se distingue des solutions traditionnelles à la fois par la qualité de l'assistance qu'elle fournit aux utilisateurs, et par le fait que cette assistance est totalement transparente pour l'administrateur, le service étant intégralement automatisé.

L'equipe fondatrice de Synomia a conçu un moteur linguistique dont les performances se révèlent aussi bien sur des sites web de quelques pages que sur des contenus volumineux.

"Une navigation intuitive et efficace, qui reflète aussi l'organisation logique de votre site..."


L'originalité première de Synomia est d'assister l'utilisateur dans sa recherche de manière intuitive grâce à des fonctionnalités exclusives de classification automatique et de suggestion de pistes de recherche. Le système se distingue en cela fondamentalement des moteurs traditionnels, dont on ne peut guère plus attendre que de retrouver les documents contenant les mots saisis.

Avec Synomia, une recherche d'information se déroule de manière interactive et intuitive, afin que d'une part le visiteur ne soit pas confronté à un volume d'information trop important, et d'autre part afin qu'il trouve plus rapidement le ou les documents qui répondent à sa demande. Un véritable dialogue s'instaure entre le visiteur et le moteur, dialogue qui conduit, grâce aux affinages et relances pertinentes pour sa requête, jusqu'à l'information recherchée.

En fonction de la demande de l'utilisateur, Synomia est capable de limiter son analyse à une rubrique particulière de votre site. Synomia respecte ainsi votre classification thématique, et fournit son assistance en complément de votre structuration éditoriale, sous la forme d'un second niveau de classification qui est cette fois fonction du contenu réel de chaque document. Synomia vous permet de capitaliser sur vos outils existants et son installation n'affecte en rien vos méthodes de production actuelles.


"Un système robuste, conçu et réalisé à la périphérie des solutions conventionnelles..."

Pour atteindre ce niveau de performance, Synomia a développé une approche radicalement nouvelle. Le moteur ne fait appel à aucune base de connaissance pré-existante (KB pour Knowledge Base) et à aucun dictionnaire. En effet, son analyse met en oeuvre un procédé d'apprentissage endogène révolutionnaire (brevet déposé).

Synomia identifie les terminologies et formulations structurantes du site, effectivement et uniquement sur la base des documents qu'il contient, de telle sorte que la connaissance extraite est en permanence en adéquation optimale avec le contenu proposé. La technologie est de ce fait adaptable à n'importe quel site et à n'importe quel type de document textuel (corpus documentaire), elle est autonome dans son fonctionnement et ne requiert aucune maintenance. Les analyses produites sont intégralement accessibles à l'administrateur, qui peut intervenir pour supprimer les informations qu'il ne souhaite pas promouvoir, et compléter ainsi par une supervision appropriée l'intelligence du système.


En termes de fiabilité, Synomia offre une disponibilité maximale (99,9%, 24H/24, 7J/7), gràce à sa plateforme de production: hébergement sécurisé et infrastructure télécom Telia*, serveurs quadri-processeurs IBM* optimisés pour une redondance absolue de type Raid 50.


* Les marques citées ici sont la propriété exclusive de leur propriétaires respectifs.

 
  Satisfaction - Fidélisation
 
  Fidélisez vos visiteurs en leur offrant un accès facilité à l'information qu'ils recherchent


Au delà de la nécessité pour tout site d'acquérir en permanence de nouveaux visiteurs, un moteur de recherche performant est aussi le meilleur moyen de les satisfaire et de les conserver.

Votre audience est exigeante et versatile. Vous mobilisez des moyens sophistiqués pour l'accroître, la satisfaire et la fidéliser grâce, notamment, au référencement. Qu'en est-il du moteur de recherche de votre site? Contribue-t-il, comme l'ensemble de vos investissements de production et de promotion, à la capitalisation de votre audience?

Un moteur de recherche, c'est tout simplement ce que la majorité des internautes souhaite utiliser pour parcourir ou chercher le contenu d'un site. La pauvreté du moteur de recherche est même la raison pour laquelle jusqu'à 80% des visiteurs abandonnent un site au profit d'une autre source d'information.


"Acquérir, retenir... faire revenir"


Synomia offre aux visiteurs de votre site une expérience unique de navigation qui facilite l'accès à l'information, en structurant les résultats et en proposant à chaque requête une assistance intuitive et contextuelle. Allez au devant des exigences de votre audience en lui fournissant un accès efficace et instantané à votre contenu

 
  Simple et Immédiatement Disponible
 
  Grâce à l'externalisation, choisissez l'intelligence en toute sérénité


"Oubliez les contraintes techniques: une ligne de code suffit pour intégrer Synomia..."


Une simple décision suffit à révolutionner votre site web: l'installation, la maintenance et les ajustements sont intégralement assurés par l'équipe technique Synomia, à distance et en un temps record.

Synomia est disponible en mode hebergé (ASP) et en location mensuelle. L'intégralité de l'infrastructure logicielle et matérielle du service est hebergée chez Synomia. Nul besoin donc d'acquérir, installer, configurer et maintenir le moindre équipement. Nul besoin non plus de modifier quoi que ce soit à votre système actuel. L'intégration de Synomia sur votre site se réalise en copiant et collant une ligne de code, et les pages de résultats se configurent très simplement. Quant à la bande passante nécessaire à l'acheminement des requêtes utilisateurs et des réponses retournées, elle est elle aussi intégralement prise en charge par Synomia.

Grâce à l'externalisation, choisissez l'intelligence en toute sérénité.

 
  Economique et sans Investissement
 
  Profitez d'une technologie innovante sans aucun investissement


"Un Retour immédiat sur investissement, puisqu'il n'y a pas d'investissement..."

En confiant la fonction recherche de votre site à Synomia, vous bénéficiez des dernières avancées de la linguistique informatique sans avoir à supporter les investissements de mise en oeuvre et les difficultés de maintenance traditionnellement associés aux systèmes sophistiqués.

Choisissez d'investir votre temps et vos ressources dans votre site web, pas dans une technologie.


"Economique car mutualisé..."

Grâce à la mutualisation des ressources, Synomia a réussi le pari d'une tarification par abonnement extrêmement concurrentielle. Vous ne payez réellement que ce dont vous avez besoin: le tarif que vous sélectionnez dépend en effet de votre trafic, du nombre de pages à indexer, de la fréquence de rafraîchissement et de la richesse des fonctionnalités désirée.

Quelle que soit la nature et la taille de votre site, vous pouvez lui faire bénéficier de la performance d'une recherche intelligente sans avoir à supporter d'investissement de départ. Avec Synomia, ne laissez plus les coûts dicter vos ambitions, capitalisez sur le succès de votre site.

.


 
  Fonctionnalités clés
 
  Objectif: accéder aux bons résultats et ne présenter que les bons résultats.

Le logiciel Site Search de Synomia répond aux contraintes principales de la recherche d'information par mot clé:

- les résultats retournés sont trop nombreux;

- les résultats ne sont pas suffisamment pertinents;

- les requêtes des visiteurs manquent de précision.

Pour l'administrateur, Site Search est un système totalement automatique, robuste et autonome. Il ne nécessite ni installation ni maintenance.


Classification automatique et synthèse des résultats
Synomia classe les résultats et en extrait les principales thématiques, offrant à chaque requête une structure de consultation et une synthèse complète de l'information disponible...

Suggestions de recherche
Synomia indique, par des suggestions de recherche intuitives et contextuelles, le plus court chemin vers l'information recherchée....

Linguistique et traitements morpho-syntaxiques
Synomia s'appuie sur une analyse morpho-syntaxique approfondie pour s'affranchir intelligemment des variations grammaticales...

Suivi approfondi des recherches
Un outil de gestion qui facilite l'analyse des recherches et l'optimisation votre contenu...