Divers
Articles E-marketing |
||
Liste des sources d'informations utilisées pour l'analyse Marketng des usage d'Internet : A.
T. Kearney |
||
avec Adcom | ||
Pour trouver un site : 3 possibilités - connaissance du nom de domaine - possession du lien - utilisation d'un outil de recherche La recherche d'un produit, d’une information, d'un site, d'une entreprise, d'un service, d'un événement sur internet s'effectue sur des sites spécialisés où se trouve concentrée, organisée l'information. Appelés moteurs et répertoires, ces sites sont le point de départ pour toute recherche. Votre site doit obligatoirement y être inscrit. A. Les moteurs = bases de données organisées selon le contenu des pages. • Mode d'alimentation et de sélection : automatique et/ou semi-manuelle • Descriptif de fonctionnement :
le moteur parcourt internet et indexe les pages qu'il rencontre. Il capte
les mots-clefs se rattachant aux sites. • Fonction du moteur : assistant
de recherche. Lors de vos connections, le moteur vous propose d'effectuer
une recherche basée sur un ou plusieurs mots-clefs. Exemple de moteur : altavista, hotbot,
voilà, ... • Fonction : sérier tous
sites qui leurs sont proposés. Les répertoires sont remplis
humainement, les responsables du répertoire visitent le site, vérifient
l'exactitude des données fournies, les indexent. Classement par
sujet, pays, activités, domaines. • Exemple d'annuaire: Yahoo.fr,
Tiscali-nomade, Guide Aol, Indexa,...
• Fonction : sérier tous
sites qui leurs sont proposés sur un thème donné.
Ces outils sont une alternative à l'utilisation des outils généralistes.
Peu connus, leur utilisation apporte pourtant une facilité dans
la recherche d'informations car déjà ciblée.
• Mode de fonctionnement : selon l’outil • Fonction : utiliser les sources actuelles et vous sérier les réponses pour vous les présenter sous différents formats. Le méta-moteur va interroger une sélection de moteurs et va retirer les doublons dans les réponses. Avec une interface web, il vous suffit de poser une fois votre requête sur le méta-moteur, il va ensuite poser cette question à 3-6-9 outils simultanément et vous donner les meilleures réponses reçues. Les logiciels : le principe est le même : interroger différentes sources d’informations, analyser les réponses et vous proposer des options de sélections, filtres pour en retirer l’essentiel. L’avantage de ces logiciels est qu’ils sont souvent développés pour vous guider dans le choix de la requête et dans la sélection des sources à questionner. Quelques exemples d’outils : Logiciels :
Pour une mise en avant de votre site celui-ci doit être inscrit aussi bien dans les moteurs que dans les répertoires. Pour ce faire une démarche précise doit être réalisée dans ces bases de données, car les moteurs et répertoires n'intègrent pas systématiquement les nouveaux sites. L'adresse de votre site, votre activité, vos produits, .... doivent leur être communiqués. Le référencement : un suivi
permanent. Exemple : événements, actualités, nouveau produit, ... La visibilité de votre site : |
||
Le
fonctionnement d'un moteur de recherche :
Après avoir donné l'adresse de votre site par le formulaire "ajout d'url", le moteur de recherche visite votre url et enregistre toutes les pages qu'il va trouver par l'intermédiaire des liens. Exemple, sur cette page le moteur va trouver
et suivre le lien suivant : www.adcom.fr. Puis une fois sur la page d'accueil,
il va suivre les autres liens, etc, etc. et ainsi de suite. L'utilité des balises méta
: - balise description : <html> <HEAD> On peut distinguer 3 grandes familles
de balises : Vancouver : www.vancouver-webpages.com Pour les webmasters : C'est à vous d'insérer ces balises sur les pages à proteger : • Exemple de balises picts : <head> |
||
L'utilité
du fichier "robots" : Toutes les pages de votre site sont potentiellement "indexables". C'est à dire que toutes les urls peuvent être enregistrées. Toutefois avec des FRAMES, des pages DYNAMIQUES,
du FLASH, de sites marchands, il faut limiter le parcours des moteurs,
leur interdire certaines pages. # robots.txt pour le site http://www.adcom.fr La ligne "User-agent : *" indique
que tous les moteurs sont concernés. Le texte original en anglais est disponible
à l'adresse suivante : www.adcom.fr/rep1/ Ensuite, lors de l'utilisation de frames, pensez à mettre vos frameset (la page de cadre) dans un répertoire /framset/ qui sera visité par les moteurs et mettez les frames (pages qui composent la frameset) dans un autre répertoire /frames/ par exemple. Le fichier robots.txt sera alors : Seules seront visitées les pages de frameset, la page d'accueil, les éventuelles pages satellites. Attention !! : Cette technique n'est pas obligatoire, vous pouvez aussi utiliser la balise méta suivante : <metaname="robots" content="noindex,
follow"> n'indexe pas la page, suit les liens Ici il faut le faire sur toutes les pages...
attention aux gros sites. |
||
Le
principe : Il existe de multiples façons d'optimiser son référencement. Pas de recettes miracles, juste rigeur et bon sens ! CHOISISSEZ DES METHODES SIMPLES MAIS EFFICACES Chaque site a sa personnalité, son optimisation. La base quant à elle revient toujours. Il y a un minimum à réaliser, le voici : Les titres : C'est important pour 2 raisons : les moteurs vont retenir les mots clefs présents dans celui ci. C'est, de plus, ce que l'on va voir en premier dans les résultats à une requête. Les pages : Le contenu de la page, l'utilisation des frames, les caractères, les images, l'importance du texte, ... tout est analysé par le robot. Il est vrai qu'une page en texte comme celle ci est mieux référencée qu'une page ne comportant que des images. Les balises méta : De plus en plus, les moteurs de recherche ne prennent plus en considération les balises "description" & "keywords". Inutile donc d'avoir une attention particulière à ces 2 balises. A noter que la balise meta description peut avoir, dans certains cas, une utilité de présentation dans les pages de résultats. Vous trouverez sur cette page, une présentation de ces balises. |
||
Toute
l'attention sur le choix des mots clés doit être apportée
dès la conception du site. Bien distinguer le "on" et le "off-line" Atteindre sa cible sur internet necessite souvent une approche et des méthodes différentes des supports "off-line" Ce choix déterminera votre futur positionnement dont dépend directement votre audience et votre trafic. La base de votre promotion Comment les choisir ? Cela peut sembler simple : je vend des chaussures sur internet donc c'est "chaussure" qui va être important ... OUI mais ce n'est pas tout ... chaussures, chaussures sport, chaussures femmes, shopping chaussures, chaussures hommes... etc, sont autant de combinaisons génératrices de trafic. Pour faire le choix des bonnes combinaisons il faut étudier ce que "nous", internautes, nous utilisons le plus souvent, le plus intuitivement sur les moteurs. Chaque combinaison, mot aura une incidence sur l'optimisation et donc le placement de votre site sur les annuaires, moteurs, portails. Où trouver ces informations ? Avec l'arrivée des acteurs de positionnement
payant, certaines informations quantitatives arrivent sur le marché.
Ces acteurs (Espotting, Google, Overture) indiquent le nombre de fois
où la requête a été tapée. Découvrez les Générateurs
de mots clés sur Indicateur.com |
||
L'histoire
.. : Au début, il y eut un site, puis un autre jour, il y eu 2 sites, puis 3, 4, 100, mille, 1 million, 2 millions ... Au début pour ranger les premiers 100 sites, il y eu yahoo, puis un autre, puis un moteur, puis 2, puis 100 ... etc. Le web devint alors ce qu'il est, ce qu'il sera : un flux croissant d'informations entrant et sortant véhiculé par un nombre de sites en perpétuelle augmentation. Quand nous recherchons de l'informations, un site, nous utilisons ces moteurs. Malheuresement ils ne peuvent donner sur la première page toutes les réponses. Ils effectuent alors un classement : le "ranking", propre à chaque moteur. Certains vont privilégier le titre de la page, la plupart le texte, d'autres les mots-clefs, de plus en plus la totalité. Une parfaite connaissance de ces méthodes peut entraîner des abus. Il est plus sympa d'apparaître en première place plutôt que sur la 100ème. Exploiter les moteurs en réalisant des pages "suradaptées" à leur méthode s'appelle le "spamindexing". • Exemple : je sais qu'un moteur de recherche porte beaucoup d'importance au nombre de fois où le mot est cité dans le titre : le titre de ma page va être : optimisation - optimisation de pages - optimisation. Petite tentative de spamindexing. Les anciennes méthodes, les plus
efficaces, il y a quelques années étaient de faire du texte
blanc sur fond blanc, cela permettait de placer des mots-clefs sur toute
la page sans gêner le visiteur. Méthode inutile maintenant
car les moteurs analysent de plus en plus le code HTML afin de débusquer
ces méthodes. ici c'est simple, car le code donne :
|
||
Il n'est pas évident de bien référencer un site. Beaucoup de critères rentrent en jeu (technologies, concurrences, importance et thème du site, ... ). Quand va apparaître mon site sur les moteurs et annuaires ? Et cette question intervient avant de se dire : est-ce qu'il va apparaître en bonne position ? Voici quelques indications pour vous rassurer et vous éviter de trop forcer les moteurs et annuaires. Considérons ici que vous avez réalisé
l'optimisation du site, que tout est en ligne et que vous avez inscrit
celui ci sur les principaux moteurs, annuaires, répertoires (si
vous cherchez une liste il existe indicateur.com) • Quelques exemples de temps d'indexation
:(25-05-02) • Quelques exemples de temps d'indexation
:(22-06-02) C. En règle générale...
ou en particulier... |
||
Enlever
une page d'un moteur : Généralement lorsque vous souhaitez enlever une page d'un moteur il suffit de supprimer la page de votre serveur et la re-soumettre aux moteurs. Ils visiteront cette page, ne la trouvant pas, elle sera éliminée de l'index. Si vous souhaitez garder la page mais qu'elle disparaisse des moteurs, utilisez alors la balise : <metaname="robots" content="noindex, follow"> ou <metaname="robots" content="noindex, nofollow"> voir page robots.txt Enlever un site de tous les moteurs : Méthode rapide et facile à mettre en place : le fichier robots.txt à mettre à la racine avec la syntaxe : User-agent: * Disallow: / Enlever un site sur les annuaires : Contactez le webmaster ou utilisez les formulaires. Cela prend presque autant de temps que de le référencer. Sur certains grands annuaires, il faut compter plusieurs mois, plusieurs mails. |
||
La
problématique : Vous avez sûrement constaté que le référencement de pages dynamiques, de pages de bases de données peut poser quelques problèmes d'indexation sur certains moteurs de recherches. Même si la plupart des moteurs indexent parfaitement ces urls, quelques préparations sont à prendre en compte pour les autres. Vous trouverez ici quelques éléments ... Base de données contre bases de données : Si vous rencontrez ce souci de soumission auprès de quelques moteurs, cela résulte d'une solution simple : en effet, cela revient à incorporer une base de données dans une autre base de données. Les moteurs de recherches utilisent des logiciels (robots) pour indexer vos pages. Ces robots ont soient du mal à suivre les urls appelées "exotiques" qui comportent des éléments propres aux bases de données, soient les robots sont paramétrés pour ne parcourir qu'un nombre données de pages. • Exemple d'url pouvant poser problème:
www.adcom.fr/dev/AddUrl?pg=SubmitUrl.html&svx=CT. L'approche : Les solutions ? • 2eme alternative : création
de framesets. |
||
Description
des pages alias / satellite : Ce sont des pages supplémentaires à votre site original, dans l'objectif de les optimiser pour le référencement. • Par exemple : www.adcom.fr/pages.htm
ou www.adcom.fr/page2.htm. La page1 : optimisée pour le mot : référencement,
la page2 pour le mot : recherche d'information, etc. Il faut bien réfléchir à la méthode qui sera utilisée, et penser qu'il est facile de tomber dans le spamindexing avec ces pages. |
||
Utilité
du fichier log : Toutes les activités de votre serveur sont enregistrées dans un fichier de consultations appelé fichier log. Les informations de ce fichier reflètent la vie de votre site. Comment se présente un fichier log : • format : texte • contenu : ligne de code • exemple : une ligne de ce fichier : search.pa-x.dec.com - - [24/Jan/2001:04:39:41 +0100] "GET /robots.txt HTTP/1.0" 200 649 "-" "Mercator-1.0" Quelles informations peut-on trouver ? Elles sont de 2 types : techniques et marketing 1. Les informations techniques : vous trouverez comme informations : • l'adresse IP de l'internaute • la trace laissée par les moteurs • la configuration de l'internaute (navigateur, OS, taille écran, ...) 2. Les informations marketing : • le nombre de pages vues • les sites "referers" qui indiquent d'où proviennent vos visiteurs • le parcours de l'internaute sur le site (page d'entrée, page de sortie, ...) Pour le référencement, quel est l'intérêt d'analyser ces fichiers ? Cet intérêt est PRIMORDIAL. Sachez, qu'avec une bonne analyse, vous pourrez découvrir des informations sur la qualité de votre référencement. Car : - la provenance des visiteurs vous indiquera les outils de recherches utilisés - les mots clés vous permettront d'identifier le bon positionnement de votre site - le trafic donnera une indication sur la bonne adéquation entre "positionnement et rang de votre site" sur les moteurs L'analyse des fichiers log : Il y a 2 méthodes d'analyses : soit automatiquement par logiciel, soit manuellement. 1. Les logiciels d'analyse de fichiers log : Comme nous l'avons vu, ces fichiers se présentent sous la forme de lignes de codes laissées sur les serveurs. Pour bénéficier d'une présentation plus digeste, certains logiciels ont été conçus pour faire une synthèse graphique des données. • Emplacement : logiciel à installer sur le serveur ou sur votre ordinateur • Prix : gratuit et jusqu'à plusieurs milliers de francs • Exemple : Webtrends, Analog, 2. L'étude manuelle : Il faut savoir que vous ne découvrirez que peu d'informations supplémentaires en comparaison des rapports édités par les logiciels. D'un point de vue "administration d'un site", nous vous conseillons d'utiliser des logiciels de traitement qui fournissent généralement de bon rapports. Sources : Les sites des logiciels : - Webtrends : http://www.webtrends.com - Analog : http://www.statslab.cam.ac.uk/~sret1/analog/ - Webalyser : http://www.webalyser.com/ Pour une analyse personnalisée de vos fichiers logs, |
||
Composante
essentielle d'un site, le trafic mérite une attention toute particulière
en terme d'analyse. L'analyse Différentes possiblités vous sont offertes pour celle ci : 1. L'analyse des fichiers logs : Pour analyser vos fichiers logs, plusieurs outils sont disponibles, cf : fichiers log. 2. Les marqueurs "on line" : Le principe est simple : analyser votre trafic en temps réel. La mise en place consiste à insérer sur vos pages des lignes de codes qui enverront l'informations à un serveur qui enregistrera l'information : Méthode : un internaute affiche une page de votre site, le marqueur se déclenche et comptabilise l'information sur le serveur du service. Avantages : • mesure directe de l'information • mise en forme automatique de l'information Inconvénients : • il faut marquer toutes les pages : presque impossible sur de gros sites • généralement, peu de données sont analysées Les marqueurs : - XITI : http://www.xiti.com/ - Estat : http://www.estat.com/ Pour une analyse personnalisée de votre trafic |
||
OUTILS | ||
Nous
avons sélectionné pour vous des outils et sources d'informations
grâce auxquels :
Cet assortiment de sites, de listes, d'applicatifs, .... n'est pas exaustif. Faites nous parvenir vos suggestions :
|
||
Vous
trouverez listé des scripts divers et variés utiles pour le
référencement. Certains vous permettront d'organiser la navigation de vos visiteurs mais aussi de préparer le parcours des moteurs. C'est quoi un script ? Il s'agit de quelques lignes d'instructions à insérer dans le code html de vos pages. A quoi ça sert ? Note : "index.htm" indique l'adresse
de la frameset. <script language="Javascript"> Note :
|
||
C'est
quoi un robot ? Les moteurs de recherches utilisent des logiciels pour parcourir internet et alimenter leurs bases. Ces logiciels sont appelés des " robots " Ces outils " lisent " vos pages et les enregistrent, les indexent selon différents critères propres à chacun d'eux. Comment les connaitre ? Ces robots, en arrivant sur votre site, laissent une empreinte sur votre serveur dans le fichier log. Leur passage est repérable par une "signature" propre à chacun. • Exemple : altavista a nommé
entre autre " mercator " un de ses robots. Qui utilise des robots ? |
||
1.
Les méta-répertoires : Indicateur.com : Annuaires, moteurs de recherches sur internet. Informations et actualités. Toutes les sources d'informations qualifiées et classées en catégories. Liste de diffusions sur les nouveaux outils. www.indicateur.com Enfin : Liste des outils de recherches francophones. Classement par catégories. Edite " chasseurs de moteurs ", lettre mensuelle sur les nouveaux outils. www.enfin.com Beaucoup : Liste internationale d'outils de recherches. www.beaucoup.com 2. Les méta-moteurs : Trouvez : |
||
Avant-propos
: Les applicatifs que nous vous proposons ci-dessous ont pour vocations de vous simplifier la vie. Attention ! : beaucoup n'ont que le mérite d'exister. Ils ne sont en rien LA solution de votre référencement. Ils ne peuvent se substituer à une analyse personnalisée. Tout au plus peuvent-ils vous aider dans vos vérifications. Le référencement en kit
n'existe pas ! Note : pour plus d'explications : Le fichier
robots.txt Brioude : génération automatique
de balises meta. Simulation de la visite d'un robot : Logiciels de référencement
: Exemples : Search Engine Commando :
Did-it : |
||
Les
listes de l'environnement des moteurs de recherches et du référencement
:
• Indicateur : • Abc-netmarketing : • Référencement :
• Motrech : • I-search : • Veille : |
||
Loin
de nous l'idée de vous inciter à utiliser ce mode de référencement.
Faites le vous-même ! Néanmoins, à destination de ceux pour qui la tentation est trop forte, ceux qui sont dans la recherche du quantitatif gratuiit à tous prix, voici un premier lien. AddMe: |
||
Cette
notion de "standard" regroupe l'ensemble des offres du marché
dont le shéma technique et économique repose avant tout sur
des concepts de "package", quantité, ...
Généralement, cela se traduit par la facturation à la page, à l'outil, aux mots clés. Incontestablement, cette approche est nécessaire pour cadrer et délimiter les relations commerciales entre un acheteur et un vendeur. TOUTEFOIS, et trop souvent, ces offres standardisées sont trop paramètrées. Leur présentation correspond essentiellement à des impératifs marketing et commerciaux qui ne prennent pas en compte l'ensemble du site, ses spécificités, son contenu ... Constat : inadéquation entre les attentes exprimées par rapport aux objectifs fixés, et les résultats obtenus. Trop standardisé peu personnalisé = faible valeur ajoutée / faible rentabilité |
||
En relation avec notre partenaire : | ||
|
||
Indicateur
vous propose un dossier spécifique sur la veille.
Qu'elle soit stratégique,
concurrentielle, technologique ou référentielle, la veille
est plus que jamais un poste indispensable. Pour mieux cerner les enjeux, comprendre ses principes, apprécier son impact, nous avons sélectionné sur une page les liens indispensables pour appréhender ce domaine. Sites d’explication, sites de contenus, portails et annuaires sur la veille, forums et outils, retrouvez les meilleures adresses sur la page Veille Indicateur. http://www.indicateur.com/Doc/veille.shtml
|
||
Nouveau moteur
interne , Avec la solution Synomia
Indicateur vous propose depuis ce matin un nouveau moteur pour la recherche par mots clés sur notre site grâce à la solution Synomia. Voici en quelques mots les capacités et options du moteur. Les recherches se réalisent par mots clés avec ou sans les opérateurs booléens. Suite à une requête, les liens de la zone "Pour affiner votre recherche" vous permettront de reformuler, compléter les résultats. Les chevrons dans cet encadré vous donnent différentes possibilités supplémentaires de requêtage. Par exemple,
la requête "moteur" vous donnera en requêtes associées
: A propose de Synomia : La société Synomia lance en France une offre très innovante de recherche sur site web. Basé sur une technologie linguistique et syntaxique totalement automatique (fruit de 10 ans de recherche au CNRS) et sur un mode de fonctionnement à distance (ASP), Synomia est en mesure d'offrir un moteur intelligent à tout type de site web. L'offre se met en place très facilement, et fournit de manière totalement automatique, une assistance contextuelle à la recherche. Pour découvrir
les quatre familles de produits: Contact Synomia
: URL : |
||
Un moteur
réellement innovant
Synomia se distingue des solutions de recherche traditionnelles à la fois par la qualité de l'assistance fournie aux utilisateurs, et par sa grande simplicité d'administration, le service étant intégralement automatisé.
Satisfaction,
Fidélisation, Rétention Simple et
immédiatement disponible Economique
et sans investissement |
||
Puissance
de la Linguistique et Robustesse |
||
Trouver plus
vite et plus facilement grâce à l'assistance intelligente
Inconvénients des moteurs de recherche de site traditionnels La majorité des internautes souhaite accéder au contenu d'un site grâce à un moteur de recherche (mode search), là où seulement une minorité préfère le mode consultation par la structure des menus et des répertoires (mode browse). Ce n'est pas si étonnant: il est naturel d'imaginer pouvoir trouver l'information plus rapidement avec un moteur, parce que cela paraît plus facile et spontané. Or, chercher au sein d'un site peut vite s'avérer une tâche ardue pour la majorité des internautes, non-aguerrie aux fonctionnalités avancées des moteurs de recherche. La recherche par mot clé produit en effet généralement un nombre trop important de résultats, qui par ailleurs ne sont pas tous pertinents pour la recherche. Le manque d'intelligence des moteurs actuels se traduit également par l'incapacité à étendre une recherche de manière efficace à des termes liés, auxquels l'utilisateur n'a pas pensé. Par exemple des termes synonymiques ("microprocesseur" et "CPU"), des variations de genre ("nouveau" et "nouvelle"), des variations de nombre ("thème" et "thèmes").
Les moteurs pour site les plus rudimentaires présentent les inconvénients qui caractérisent la première génération d'outil de recherche: ils reposent exclusivement sur l'utilisation de mots clés en mode plein texte. Leur pauvreté tant dans la recherche que dans l'administration implique des contraintes élevées - et souvent sous estimées - d'installation et de maintenance. Certains moteurs de site proposent l'intégration de dictionnaires de synonymes pour aider à étendre une recherche de manière automatique. Or, les dictionnaires de synonymes ont par définition une couverture limitée, en particulier pour des domaines spécialisés, et il est d'autre part humainement et économiquement impossible de les maintenir à jour. Les plus récents moteurs de recherche issus du web proposent à l'internaute une assistance à la reformulation basée sur des algorithmes essentiellement statistiques. Ces outils sont pertinents et performants parcequ'ils traitent des volumes considérables (de plusieurs millions à plusieurs milliards de pages). Dès qu'il s'agit de rechercher dans le contenu d'un seul site (de quelques dizaines de pages à quelques centaines de milliers) la technologie de ces moteurs ne permet ni de fournir d'assistance performante, ni de couvrir les informations insuffisamment représentées dans les documents (signaux faibles). Enfin, la plupart des moteurs sémantiques ou linguistiques issus des intranets d'entreprise sont inaccessibles à la grande majorité des sites web. Ils sont complexes dans leur fonctionnement et il est très difficile pour un administrateur non-spécialiste de les maîtriser, si ce n'est au prix de modifications majeures et coûteuses, et avec la contrainte d'une maintenance permanente. Leur couverture est forcément limitée à des domaines particuliers, puisque leur intelligence nécessite une spécialisation par dictionnaire, et leur coût de configuration et de fonctionnement est tel qu'ils sont en fait très peu utilisés. Enfin, pour les sites web n'ayant pas recours à un moteur interne, le réflexe premier de l'administrateur est de structurer l'information disponible, afin d'en offrir un accès logique. C'est bien l'objet des menus et des rubriques. Il est malheureusement difficile de classifier l'intégralité de l'information présente, ou tout au moins avec un niveau de détail suffisant, ce procédé étant coûteux et forcément répétitif. C'est d'autre part ignorer la demande croissante des visiteurs pour la fonction search.
Synomia est la première approche linguistique au service de la recherche au sein d'un site. Elle se distingue des solutions traditionnelles à la fois par la qualité de l'assistance qu'elle fournit aux utilisateurs, et par le fait que cette assistance est totalement transparente pour l'administrateur, le service étant intégralement automatisé. L'equipe fondatrice de Synomia a conçu un moteur linguistique dont les performances se révèlent aussi bien sur des sites web de quelques pages que sur des contenus volumineux. "Une navigation intuitive et efficace, qui reflète aussi l'organisation logique de votre site..."
Avec Synomia, une recherche d'information se déroule de manière interactive et intuitive, afin que d'une part le visiteur ne soit pas confronté à un volume d'information trop important, et d'autre part afin qu'il trouve plus rapidement le ou les documents qui répondent à sa demande. Un véritable dialogue s'instaure entre le visiteur et le moteur, dialogue qui conduit, grâce aux affinages et relances pertinentes pour sa requête, jusqu'à l'information recherchée. En fonction de la demande de l'utilisateur, Synomia est capable de limiter son analyse à une rubrique particulière de votre site. Synomia respecte ainsi votre classification thématique, et fournit son assistance en complément de votre structuration éditoriale, sous la forme d'un second niveau de classification qui est cette fois fonction du contenu réel de chaque document. Synomia vous permet de capitaliser sur vos outils existants et son installation n'affecte en rien vos méthodes de production actuelles.
Pour atteindre ce niveau de performance, Synomia a développé une approche radicalement nouvelle. Le moteur ne fait appel à aucune base de connaissance pré-existante (KB pour Knowledge Base) et à aucun dictionnaire. En effet, son analyse met en oeuvre un procédé d'apprentissage endogène révolutionnaire (brevet déposé). Synomia identifie les terminologies et formulations structurantes du site, effectivement et uniquement sur la base des documents qu'il contient, de telle sorte que la connaissance extraite est en permanence en adéquation optimale avec le contenu proposé. La technologie est de ce fait adaptable à n'importe quel site et à n'importe quel type de document textuel (corpus documentaire), elle est autonome dans son fonctionnement et ne requiert aucune maintenance. Les analyses produites sont intégralement accessibles à l'administrateur, qui peut intervenir pour supprimer les informations qu'il ne souhaite pas promouvoir, et compléter ainsi par une supervision appropriée l'intelligence du système.
|
||
Satisfaction
- Fidélisation |
||
Fidélisez
vos visiteurs en leur offrant un accès facilité à l'information
qu'ils recherchent
Votre audience est exigeante et versatile. Vous mobilisez des moyens sophistiqués pour l'accroître, la satisfaire et la fidéliser grâce, notamment, au référencement. Qu'en est-il du moteur de recherche de votre site? Contribue-t-il, comme l'ensemble de vos investissements de production et de promotion, à la capitalisation de votre audience? Un moteur de recherche, c'est tout simplement ce que la majorité des internautes souhaite utiliser pour parcourir ou chercher le contenu d'un site. La pauvreté du moteur de recherche est même la raison pour laquelle jusqu'à 80% des visiteurs abandonnent un site au profit d'une autre source d'information.
|
||
Simple
et Immédiatement Disponible |
||
Grâce
à l'externalisation, choisissez l'intelligence en toute sérénité
Synomia est disponible en mode hebergé (ASP) et en location mensuelle. L'intégralité de l'infrastructure logicielle et matérielle du service est hebergée chez Synomia. Nul besoin donc d'acquérir, installer, configurer et maintenir le moindre équipement. Nul besoin non plus de modifier quoi que ce soit à votre système actuel. L'intégration de Synomia sur votre site se réalise en copiant et collant une ligne de code, et les pages de résultats se configurent très simplement. Quant à la bande passante nécessaire à l'acheminement des requêtes utilisateurs et des réponses retournées, elle est elle aussi intégralement prise en charge par Synomia. Grâce à l'externalisation, choisissez l'intelligence en toute sérénité. |
||
Economique
et sans Investissement |
||
Profitez d'une
technologie innovante sans aucun investissement
En confiant la fonction recherche de votre site à Synomia, vous bénéficiez des dernières avancées de la linguistique informatique sans avoir à supporter les investissements de mise en oeuvre et les difficultés de maintenance traditionnellement associés aux systèmes sophistiqués. Choisissez d'investir votre temps et vos ressources dans votre site web, pas dans une technologie.
Grâce à la mutualisation des ressources, Synomia a réussi le pari d'une tarification par abonnement extrêmement concurrentielle. Vous ne payez réellement que ce dont vous avez besoin: le tarif que vous sélectionnez dépend en effet de votre trafic, du nombre de pages à indexer, de la fréquence de rafraîchissement et de la richesse des fonctionnalités désirée. Quelle que soit la nature et la taille de votre site, vous pouvez lui faire bénéficier de la performance d'une recherche intelligente sans avoir à supporter d'investissement de départ. Avec Synomia, ne laissez plus les coûts dicter vos ambitions, capitalisez sur le succès de votre site. .
|
||
Fonctionnalités
clés |
||
Objectif:
accéder aux bons résultats et ne présenter que les
bons résultats.
Le logiciel Site Search de Synomia répond aux contraintes principales de la recherche d'information par mot clé: - les résultats retournés sont trop nombreux; - les résultats ne sont pas suffisamment pertinents; - les requêtes des visiteurs manquent de précision. Pour l'administrateur, Site Search est un système totalement automatique, robuste et autonome. Il ne nécessite ni installation ni maintenance.
Suggestions
de recherche Linguistique
et traitements morpho-syntaxiques Suivi approfondi
des recherches |