Actualites | Forum |Archives
Le magazine des décideurs et webmasters qui gagnent !
Inscription | Livre d'or | Plan du site | 15 visiteurs actifs
   
A la Une
Actualité
Dossiers
Communiqués
Coin Technique
Agenda des salons
Emploi
Echange de liens

Archives
Sélection
Expérience qui parle
Internet quotidien
Tous les dossiers

Forum
Forum SAM-MAG

Guides
Check-list de la promotion des sites
Promouvoir et référencer les sites web

Contact
Nous contacter
Newsletter
La protection des données personnelles


 
Moteurs, crawlers, traceurs, sniffers et compagnie !
Dossier de la semaine du 19 au 25 Mars 2001 par Marie Algéo de webreport

ancés sur le réseau Internet comme des pieuvres à l'affût, les agents intelligents déchaînent les passions depuis leur création. Ces logiciels informatiques, programmés pour parcourir des sources d'informations innombrables, deviennent pour beaucoup d'entre nous des outils inévitables dès lors que l'on cherche de l'information sur Internet.
Mais, pour optimiser l'efficacité de ces agents intelligents, encore faut-il les connaître. Les grandes familles, leurs points forts, leurs points faibles, les meilleures techniques de programmation…
Nous vous proposons maintenant une sélection des meilleurs agents intelligents disponibles sur le Net.

Les méta-moteurs

Les méta-moteurs ne sont pas des agents intelligents stricto-sensus.
Ce sont plutôt des supers moteurs qui interrogent en même temps plusieurs moteurs de recherche. Parfaits pour une recherche d'informations exhaustive, ils sont soient consultables en ligne - Meta-crawler ou Profusion - soit à installer sur son disque dur pour une recherche off-line : Webferret ou le célèbre Copernic font parti de ceux-là.
L'autre avantage des méta-moteurs est qu'ils nettoient les résultats : liens morts, doublons … Un gain de temps énorme donc, par rapport à une recherche sur un moteur de recherche traditionnel.

Les agents de recherche

Si vous désirez mettre en place une veille solide et ne passer à côté d'aucune information, les méta-moteurs ne suffisent pas et il faudra passer au niveau supérieur : les agents de recherche avancés.
A télécharger sur son ordinateur -comme pour les méta-moteurs, les possibilités n'en seront que décuplées puisque l'agent utilisera la mémoire de votre ordinateur - , ces programmes vous donneront accès à plus de sources d'information et vous permettront de mieux affiner vos recherches et vos résultats.
Parmi les plus connus, on trouve digout4U , webseeker ou Stratégicfinder , dont la deuxième version a beaucoup fait parler d'elle.
L'intérêt ici est de savoir où ces agents vont aller chercher l'information : pour Strategicfinder par exemple, les sources habituellement fermées sont accessibles, comme le " web invisible ", celui que les moteurs de recherche traditionnels ne couvrent pas. Notamment les pages des sites dynamiques difficilement référençables et les bases de données institutionnelles.

Les surveillants

Ceux-là répondront au doigt et à l'œil à vos demandes les plus précises. Vous voulez vous tenir au courant d'un changement sur un site en particulier ou savoir si de nouvelles informations ont été publiées sur telle source : les surveillants sont là pour ça.
Ils fonctionnent avec des mots-clé et des sources à surveiller. Dès qu'un changement apparaît, il vous avertit, soit par mail, soit dans un espace privé sur le web de l'agent.
Parmi les plus connus, on trouve Mindit ou The informant

Les aspirateurs

Pour faire face au renouvellement incessant de l'information sur des sites précis, les aspirateurs de sites vont beaucoup plus loin que les A.I. type " The Informant ". Ces programmes copient l'intégralité ou une partie d'un site sur votre disque dur que vous pouvez ensuite consulter à loisir hors connexion. Des alertes sont prévues au moindre changement mais les aspirateurs deuxième génération permettent de déclencher ces alertes seulement quand un changement intéressant pour vous survient. Citons Webmirror , Nearsite ou, pour les plus récents, Net Attaché Pro ou Webspector . Un exemple avec Memoweb qui vous permet d'aspirer au choix un site entier, une seule page, une photo ou tout autre type de fichier trouvé sur le web.

Les agents " appliqués "

Comprenez les agents appliqués à une tâche bien précise, comme les shopbots, ces agents intelligents capables de chercher sur le web les offres de produit et de ramener les plus intéressantes, c'est à dire les moins chers. Un des plus connus est sûrement celui de Kelkoo , " le site qui trouve tout au meilleur coût ".
Vous le voyez, la famille est grande et vue les besoins et la forte demande pour passer moins de temps à chercher de l'information sur Internet, elle est promise à grandir encore.
A se modifier aussi : les différentes familles d'agents tendent à se ressembler et chaque agent devra bientôt pouvoir tout faire. Il devra surtout être personnalisable, chercher dans un grand nombre de sources et surveiller en même temps une page.
Enfin, il reste tout de même un dernier enjeu qu'il va falloir relever : la compréhension du sens et du langage naturel. Les agents intelligents n'ont pas fini d'évoluer.

NDLR : Pour approfondir le sujet, pensez à venir à la Conférence dédiée à la Veille sur Internet, le 26 mars 2001 de 14h à 18h à Bordeaux. Olivier Andrieu, Cybion, Arisem, Voila.fr et Webhelp répondront à vos questions.
Pour ceux qui ne peuvent pas venir à Bordeaux, des relais visioconférences sont mis en place à Paris, Toulouse, Pau, La Rochelle, Lorient et Poitiers.
CLIQUEZ pour connaître tous les détails et pour vous inscrire.

Webreport

 

 
 
Google
 
Web www.sam-mag.com
 

Copyright © ACORUS 2004. All Rights Reserved

- Sam-Mag.com Referencement-Sur-mesure - Referencer-Site-Web.com
Visibilite-Internationale.com - Referencement-Immobilier.net