Les pays émergents bouleversent aujourd’hui le paysage économique et politique mondial. Les entreprises occidentales ont tendance à se tourner de plus en plus vers ces nouvelles destinations, qui présentent à la fois des perspectives importantes de développement et des enjeux multiples.
Nous avons décidé de partager avec nos lecteurs notre expérience en termes de recherche d’information, d’intelligence économique et de gestion de risques liés à certains pays émergents.
Nous allons nous référer aux pays émergents de manière générale, établis par les institutions internationales en fonction de leurs performances macroéconomiques et pas seulement aux pays de la catégorie BRICS (Brésil, Russie, Inde, Chine et Afrique du Sud), qui sont des marchés en fort développement. Cette catégorie peut inclure des pays producteurs de pétrole tels que l’Angola, le Nigéria, le Ghana, les pays à fort potentiel tels que l’Indonésie, le Vietnam, le Mexique ou encore certains pays d’Asie Centrale.
Comprendre les marchés émergents implique d’aller plus loin que les données. Ces marchés sont à aborder avec nuances, en tenant compte de la culture stratégique spécifique et de leur développement en matière d’information.
On notera que certains pays des BRICS tels que la Russie et laChine ont développé depuis longtemps une bonne culture de l’information, qui appuie la stratégie et le choix de leurs entreprises, voire de leurs gouvernements. Le processus de mondialisation des marchés contraint les autres pays des BRICS tels que le Brésil, l’Inde et l’Afrique du Sud à se mettre aussi à l’intelligence stratégique. Ils créent des ressources globales d’information pour pousser leurs entreprises à s’étendre mondialement.
Globalement ces pays sont bien couverts par les bases de données internationales (EMIS, Factiva, Dun & Bradstreet, ...) et en termes de données macroéconomiques, ils disposent de services statistiques très performants. Les BRICS ne sont pas concernés par le problème de disponibilités des données, bien que leur fiabilité puisse parfois poser question. Les données les concernant sont largement disponibles, mais on constate que la plupart des difficultés sont d’ordre linguistique et d’interprétation.
Selon Pwc, plus d’une acquisition sur deux n’aboutit pas dans les pays émergents. Cela est dû premièrement à un manque de transparence des informations financières, qui peut prendre plusieurs formes : les entreprises donnent moins d’informations car, culturellement, les besoins locaux sont moindres en termes de reporting financier, l’information n’est pas partagée à cause d’une politique défensive et de confidentialité, l’information peut être présentée différemment, etc. La bonne information financière doit être comparable dans le temps et dans l’espace, ce qui signifie d’une année à l’autre et d’une entreprise à l’autre. Mais le modèle de gouvernance d’entreprise dans ces pays n’est pas identique à celui des pays développés et certaines mesures de précautions doivent être prises.
En ce qui concerne la deuxième catégorie de pays émergents, notamment les pays africains cités ci-dessus, la situation est totalement différente à cause d’un manque ou d’un faible développement de la culture de l’information. Sur le plan économique et business, l’information s’avère déterminante à plusieurs titres : comment peut-on entreprendre dans un environnement peu ou mal connu ? Comment investir dans des territoires pour lesquels on ne possède aucune donnée ?
Notons que les acteurs de la production de données se sont diversifiés ces dernières années. En Afrique, ce sont en particulier les entités privées qui se chargent de mener des études de terrain afin de produire les données et l’information qualifiée : les sociétés spécialisées en intelligence économique et intelligence pays de type Quantec (http://www.quantec.co.za), les fondations américaines et internationales (GAVI Alliance, Fondation Gates, Fund for Global Human Rights, Amnesty International ...), les cellules spécialisées au sein de grandes entreprises et également les agences de développement américaines et internationales (USAID, l’USADF, etc).
L’existence de cette information privée est essentielle et dans la plupart des cas vient compenser ou compléter les données publiques produites par des gouvernements pas toujours transparents. Les gouvernements consacrent souvent très peu de moyens à l’élaboration de données fiables et actualisées et dans certains cas, les données existantes n’ont pas vocation à être rendues publiques.
Pour combler ce vide en termes de disponibilité des données, une nouvelle initiative a été lancée en 2012 par la Banque Africaine de Développement. Il s’agit d’une plateforme internet « d’open data » sur laquelle des données macroéconomiques spécifiques à chaque pays sont disponibles gratuitement pour tous, sous forme de graphiques, de tableaux statistiques ou de données chiffrées. Cette plateforme, intitulée « Africa Information Highway » (http://africadata.org), réunit les sites web d’open data de différents pays africains afin d’assurer plus de transparence en termes de données et d’information publique.
Néanmoins, il reste la question de la fiabilité de cette information, sachant que souvent la Banque Africaine de Développement et même la Banque Mondiale reprennent ces données sans les vérifier. Ainsi, un rapide tour sur la page « Open Data » du Burundi nous suffit pour identifier une donnée visiblement fausse : les habitants d’une région du pays sont indiqués comme ayant une espérance de vie de 92 ans… (L’espérance de vie la plus importante au monde se trouve au Japon, et elle n’est que de 84 ans)
Il est important d’avoir recours aux informations primaires obtenues via le réseau personnel, les interviews, le contact direct avec la cible. Cette étape, dénommée « primary research » est absolument nécessaire dans le cadre de missions de due diligence (comprenant toutes les activités visant à évaluer la fiabilité d’un partenaire potentiel, notamment à l’étranger) et d’investigation. Néanmoins, une recherche basée sur des sources ouvertes (notamment sur le web) reste une étape indispensable, que ce soit en préparation de recherches « terrain » ou lorsqu’on désire obtenir une information simple qui peut ne pas nécessiter de passer par une étape de « primary research ».
Dans ce contexte, la recherche d’informations dans les pays émergents pose un certain nombre de problèmes particuliers. Nous en avons isolé deux : la problématique linguistique (peut-on faire une recherche dans une langue que l’on ne maîtrise pas ? Est-ce recommandé ?) et celle de la fiabilité des données. Dans la suite de cet article, nous illustrons ainsi comment une méthodologie rigoureuse et l’utilisation d’outils adaptés peut permettre de surmonter une partie des difficultés de la recherche d’informations sur les pays émergents. En utilisant l’exemple de la Chine, nous montrerons aussi l’importance que représente la prise en compte de la législation locale dans les missions de recherche d’informations.
Déjà abonné ? Connectez-vous...
Un facteur à prendre en compte lorsque l’on réalise une recherche d’information est celui de la législation locale.
Cette problématique, importante quelle que soit la région, peut devenir cruciale lorsque la recherche se réalise dans des pays aux systèmes juridiques complexes, voir opaques.
Dans certains pays émergents, le gouvernement a ainsi mis en place une série de règles et de réglementations spécifiques afin d’éviter que l’information stratégique ne finisse entre les mains des acteurs étrangers.
Déjà abonné ? Connectez-vous...
C’est le 4 juin dernier que Yahoo a annoncé sur son blog la fin de son service Yahoo Pipes, utilisé par de nombreux professionnels de l’information.
La fermeture se fera en deux temps : à partir du 30 Août, il ne sera plus possible de créer de nouveaux pipes mais leur lecture restera possible. Le 30septembre, le service fermera définitivement ses portes.
Cette annonce n’est pas véritablement une surprise au regard de la nouvelle stratégie de Yahoo et de l’annonce de la fermeture d’autres services au cours des derniers mois. Il ne restait qu’à savoir quand Yahoo allait prendre cette décision.
Revenons maintenant quelques années en arrière… Yahoo avait lancé l’outil le 7 février 2007, en plein âge d’or du RSS. L’outil était puissant, extrêmement puissant même, mais pas forcément évident à prendre en main pour des personnes peu familières avec la programmation informatique. Néanmoins, l’outil avait rapidement été utilisé par de nombreux professionnels de l’information pour certaines tâches bien spécifiques notamment liées à l’usage des flux RSS. Contrairement à de nombreux outils qui avaient vu le jour à la même période mais qui avaient très vite disparu du paysage, l’outil de Yahoo représentait alors une solution pérenne.
Mais en huit ans, le Web a considérablement changé et les flux RSS, même s’ils n’ont pas complètement disparu, sont en constante régression au profit des réseaux sociaux comme Twitter, Facebook ou encore LinkedIn. On ne compte plus le nombre de sites (notamment d’actualités) qui ont tout simplement supprimé les flux RSS ou alors les ont tellement bien cachés que cela prend plusieurs dizaines de minutes pour les retrouver.
Chez les professionnels de l’information, Yahoo Pipes présentait l’immense avantage d’être un outil à la fois gratuit et puissant. Il était majoritairement utilisé pour mixer des flux RSS entre eux, les filtrer par mots-clés ou bien créer des flux RSS sur des pages qui n’en possédaient pas. Les fonctionnalités/opérateurs les plus utilisés étaient ainsi les suivants :
D’autres internautes utilisaient également cet outil pour gérer et optimiser des données XML, des modules de recherche, des champs de saisie, des boucles, des compteurs, des modules de traduction, la possibilité de géolocaliser les informations…
Déjà abonné ? Connectez-vous...
De nombreux articles et contenus de qualité utiles aux professionnels de l’info-doc sont publiés sur le Web au quotidien.
Encore faut-il avoir le temps de suivre ces blogs et sites spécialisés et de lire leurs nombreuses publications…
Nous avons donc sélectionné pour vous nos meilleures lectures de mai et juin.
Au sommaire de ce mois-ci, ce sont deux articles anglophones traitant de l’intelligence économique qui ont attiré notre attention.
Le site d’informations américain Information Management a publié au mois de mai un article sur l’influence du Big Data sur la veille et l’intelligence économique.
L’article s’intéresse notamment aux entreprises qui profitent du lucratif marché des big data et vendent une partie de leurs données, données qui peuvent ensuite être utilisées par des concurrents dans le cadre d’une veille concurrentielle.
Selon une étude citée dans l’article, cette pratique de vente de données serait néanmoins plus développée en Asie qu’en Europe ou même aux Etats-Unis.
L’intelligence économique ne devrait pas se limiter à la surveillance de ses concurrents, c’est en substance la thèse de l’article paru sur le site de Harvard Business Review au mois de Mai.
On y découvre notamment une initiative de l’entreprise Mars (datant d’il y a quelques années) menée alors par la directrice de l’intelligence économique qui consistait à faire des jeux de « simulation concurrentielle » avec les équipes locales de l’entreprise un peu partout dans le monde (Russie, Mexique, Turquie, Royaume-Uni, etc). Il ne s’agissait pas de simples simulations sur ordinateur mais bien de jeux de rôle complexes et menés dans des conditions réelles et qui ont notamment permis aux dirigeants de l’entreprise de voir leur marché sous un angle différent et inhabituel.
D’autres pistes sont également évoquées pour mener une stratégie d’intelligence économique efficace.
Un article paru dans la revue britannique Research Information d’Avril/Mai 2015 et librement accessible en ligne s’intéresse à la façon dont la technologie a changé notre façon de rechercher et d’utiliser l’information sous l’angle des éditeurs scientifiques et de leurs plateformes.
Les récents développements, les challenges rencontrés et les futures tendances impactant ces plateformes y sont détaillés. On y trouve des témoignages de Semantico, Highwire, Emerald, etc.
Sur le site du cabinet Kleiner Perkins Caufield & Byers (KPCB), on trouve une longue présentation de 196 pages de Mary Meeker sur les tendances d’Internet en 2015. On y trouve des statistiques sur le marché et les utilisateurs d’Internet, les dernières tendances, les marchés à forte croissance, des données sur la publicité sur le Web et les dernières nouveautés, les changements et évolutions du Web qui impactent le monde de l’entreprise, etc.
Au début de l’année 2015, Laure Tarrade, une professionnelle de l’information, avait questionné les abonnés de la liste de diffusion Juriconnexion sur leurs pratiques en matière de Knowledge Management. A la suite de ces échanges, elle a réalisé une synthèse des réponses obtenues, qui a récemment été publiée sur le site Sérendipidoc. La synthèse aborde la question des spécificités du KM dans le domaine juridique, les différentes solutions techniques proposées et des préconisations (étude des besoins, cahier des charges du logiciel, procédés de récupération et mise à jour des données, validation de l’information, soutien des associés et reconnaissance de l’activité KM, sensibilité et sécurité des données).
Le 28 Mai dernier, l’ADBS Bretagne, le CFCB et l’URFIST ont organisé à Rennes une journée sur le « Big & Open Data : conséquences et compétences pour le professionnel de l’information ». On peut d’ores et déjà retrouver sur le site de la conférence les supports de présentations suivants :
Le site renvoie également vers les séquences vidéos et les tweets publiés lors de la journée d’étude.
Effectuer un sourcing sur une thématique précise requiert un temps non négligeable. Alors quand certains internautes ou professionnels s’en sont déjà chargés et ont publié la liste des sources identifiées, il serait dommage de s’en priver. Ce mois-ci, nous avons identifié trois sites et blogs ayant publié leurs listes de sources : une sur la twittosphère Datascience Française, une sur les sources parlementaires et une sur les blogs Tumblr à suivre dans le domaine de la datavisualisation.
On connaissait IFTTT, un petit outil gratuit et très pratique permettant d’automatiser certaines tâches sur le Web (comme par exemple, sauvegarder automatiquement ses images sur Dropbox ou republier automatiquement sur LinkedIn ou Facebook ce que l’on vient de publier sur Twitter, etc) mais nous avons découvert Zapier (un outil similaire mais beaucoup plus puissant selon certains). La présentation de 28 pages présente les deux outils, l’auteur décrit les différentes utilisations qu’il en fait au quotidien et présente les différences et les complémentarités entre les deux outils.
Google CSE est un outil puissant proposé par Google depuis 2006 qui permet de créer ses propres moteurs de recherche personnalisés. Il existe deux versions : une gratuite et une payante. Steve Rath propose un tutoriel très détaillé publié sous la forme de deux billets : un premier publié en janvier dernier et le second au cours du mois de mai.
Il n’est pas rare de devoir effectuer des recherches sur les réseaux sociaux professionnels comme LinkedIn ou Viadeo. Malheureusement, leurs moteurs de recherche interne ne sont généralement pas très perfectionnés et ne permettent pas d’effectuer de requêtes complexes. Cet article présente dans le détail différentes méthodes et astuces pour interroger Linkedin en utilisant Google.
A l’origine, cet article et le guide pratique qui lui est associé s’adressent aux journalistes pour les aider à vérifier leurs informations dans un monde où l’information circule à vitesse grand V et que tout le monde recherche la course aux scoops. Le « guide de la vérification » (traduit du guide anglais « Verification handbook ») se présente sous la forme de 10 chapitres et aborde les thématiques suivantes :
Accédez à cette twittliste via notre compte @Flateam
Nous consacrons la twittliste de ce numéro de Netsources au secteur du tourisme, en nous focalisant d’une part sur les informations francophones (France, Belgique, Suisse, Québec) et d’autre part sur les actualités économiques et les grandes tendances de ce secteur.
Nous avons également introduit une petite nouveauté en complétant les listes des comptes Twitter à suivre par certaines pages Scoop-it réalisées par des spécialistes du domaine. Notre objectif est donc de lister des « curateurs » sélectionnant les informations incontournables ou étonnantes dans le domaine du tourisme.
Ce secteur est très représenté, aussi bien sur Twitter que sur Scoop-it, et la difficulté consiste à retenir les comptes ou les pages des personnes ou des organismes relayant une information de qualité.
Pour les identifier, nous avons entré plusieurs requêtes dans les deux plateformes. Le hashtag #tourisme recherché seul n’est pas très efficace pour identifier des comptes et pages à valeur ajoutée, et par ailleurs, une telle requête génère dans la liste de résultats toutes les entités officielles dédiées au tourisme pour les villes et les territoires. Nous avons donc recentré nos recherches en croisant le mot-clé tourisme avec des termes tels que : innovation, prospective, tendances, mais aussi avec des mots décrivant une expertise : veille, expert, recherche …
Comme pour les précédentes listes parues dans nos colonnes, nous n’avons retenu que les comptes actifs (publications récentes), ayant une activité régulière et suffisante en volume. Voici notre sélection (liste non exhaustive)...
Déjà abonné ? Connectez-vous...
Il n’est pas possible de commencer cette rubrique sans débuter par Google, dont l’actualité est chargée.
Récemment, l’un des porte-paroles de Google a annoncé lors de la conférence SMX Advanced de Seattle (les 2 et 3 juin derniers) que le moteur n’indexait pas toutes les urls rencontrées lors de son exploration. Google aurait ainsi accès à plus de 30 mille milliards d’urls mais n’aurait pas la capacité de stocker un tel volume.
Lors d’une recherche sur le moteur, il faut donc bien garder à l’esprit que Google ne lancera pas la recherche sur l’intégralité du Web mais une partie seulement.
Toujours au niveau de la recherche, le géant du Web vient d’annoncer que dans 10 pays (dont les Etats-Unis et le Japon), le nombre de recherches sur téléphones mobiles dépassait désormais le nombre de recherches sur ordinateurs ou tablettes. La firme ne donne malheureusement aucune indication sur les 8 autres pays.
Autre nouveauté du moteur : il est désormais possible de télécharger son historique de recherche en se rendant dans son historique Google, en cliquant ensuite sur la roue crantée puis en sélectionnant « télécharger ». Reste à savoir quel usage on pourrait en faire…
Venons-en maintenant aux autres outils proposés par Google. On notera le lancement d’une nouvelle extension Google Scholar facilitant les citations bibliographiques. Elle est téléchargeable sur Chrome (http://bit.ly/1N5V0Rz) et Firefox (http://mzl.la/1eqq2YZ).
La grande nouveauté de ce printemps, c’est bien sûr le lancement de la nouvelle version de Google Photos. Auparavant rattaché au réseau social Google+, l’outil est maintenant proposé comme un service à part. Il est téléchargeable sur Android et Ios et dispose d’une version Web. Le principal avantage de l’outil : il est gratuit et offre un stockage illimité (attention, cela ne s’applique qu’aux images de 16 Mpixels maximum et aux vidéos en 1080p maximum. Dans le cas contraire, ces fichiers iront grignoter les 15 Go offerts par Google et au-delà, il faudra payer).
Opérateur de proximité : Depuis plusieurs années maintenant, Google propose un opérateur de proximité AROUND(n) mais, jusqu’à présent, les résultats obtenus laissaient plus qu’à désirer. Récemment, plusieurs professionnels de l’information et blogueurs se sont fait l’écho de cette fonctionnalité qui semble avoir été améliorée. Nous avons nous-mêmes effectué quelques tests et avons été quelque peu déçus. Certes, les termes recherchés se trouvent bien à la distance spécifiée dans la requête, mais le nombre de résultats est très faible et on constate que le moteur occulte complètement un grand nombre de résultats qui répondent pourtant bien aux critères spécifiés. On pourra donc utiliser cet opérateur en complément mais on ne pourra s’en contenter…
Bing a récemment annoncé une nouvelle version de son moteur d’images qui comporte plusieurs améliorations. On pourra citer l’ajout d’un lien vers les sites permettant d’acheter la photo/image trouvée, une amélioration de l’interface mobile et une extension chrome avec des fonctionnalités de recherche d’images.
De son côté, le moteur de recherche Blekko a été racheté par IBM dans le cadre de sa technologie d’intelligence artificielle Watson. Le moteur n’est donc plus accessible en ligne…
Qwant (Voir Netsources N°104 – Mai-Juin 2013) a, quant à lui, lancé une nouvelle version de son moteur. Selon les dires de l’entreprise, la page d’accueil a été améliorée ainsi que la pertinence des résultats. Au niveau de la partie Actualités, de nouvelles sources d’informations ont également été rajoutées.
DuckDuckGo, le moteur qui se targue de respecter votre vie privée (en tout cas plus que Google) propose désormais ses résultats dans 4 nouvelles langues dont le français.
Chez Twitter, on a repéré plusieurs nouveautés notables. En premier lieu, on pourra citer le lancement d’un nouvel outil en février dernier appelé Curator. Il s’agit d’un outil de curation permettant de découvrir des informations et sujets tendances ainsi que de sélectionner des tweets ainsi que des vidéos issues de Vine. L’outil s’adresse principalement aux éditeurs de contenus/médias.
Du côté des fonctionnalités, Twitter a amélioré sa fonction retweet. L’affichage est désormais plus lisible et surtout, il est possible de rajouter son propre petit commentaire et ce, même si le message initial fait déjà 140 caractères. La citation/commentaire ne devra pas excéder 116 caractères.
Le moteur de recherche Twitter a également subi quelques modifications au printemps. Une fois la recherche lancée, une nouvelle barre d’outils est disponible en haut de l’écran et permet de filtrer les résultats par type de contenu (Top, Comptes, Photos, Vidéos, etc). L’affichage se fait désormais sur deux colonnes et non plus trois.
A noter également :Twitter a récemment retiré sa limite de 140 caractères pour les DM (Direct Messages), c’est à dire les messages envoyés à un utilisateur en privé.
Flipboard, l’application qui permet de concevoir un magazine à partir de flux RSS, Twitter et Facebook pourrait être racheté par Twitter prochainement. C’est en tout cas ce que s’accordent à dire plusieurs grands médias américains.
LinkedIn propose désormais à toute personne publiant du contenu sur son service un module d’analyse et de statistiques. Il permet entre autres de connaître pour chaque post publié le nombre d’impressions, de clicks et d’interactions (et ce jour par jour) et d’avoir des statistiques sur ses lecteurs (industrie, métier, localisation, etc).
Mauvaise nouvelle en revanche, LinkedIn a supprimé les statistiques liées aux groupes de discussion.
Enfin, l’entreprise a récemment déposé un brevet appelé « Interactive Fact Checking System » afin de vérifier les informations fournies par les utilisateurs sur leur CV et leur profil en ligne.
Ce n’est pas nouveau, Facebook travaille sur la conception d’un moteur de recherche depuis plusieurs années. Selon le blog Techcrunch, des internautes américains disposeraient d’une toute nouvelle fonctionnalité sur leur page Facebook ressemblant à s’y méprendre à un moteur de recherche interne, permettant de trouver des liens et de les partager avec ses amis.
Depuis le mois de juin, Facebook affiche directement des articles de presse dans le fil des utilisateurs. Pour le moment, seuls le Wall Street Journal, le New-York Times, BuzzFeed, le National Geographic, NBC News, The Atlantic, The Guardian, BBC News, Spiegel Online et Bild ont signé avec le réseau social.
L’outil de curation Scoop-it a introduit en février dernier un nouvel outil appelé Scoop-it Content Director qui permet notamment d’agréger du contenu de multiples sources, de planifier précisément ses publications, de publier du contenu et d’obtenir des éléments d’analyse et de statistiques sur ses posts. Cet outil marketing a récemment été amélioré notamment au niveau des workflows, de la newsletter (possibilité de glisser/déposer les éléments pour constituer la newsletter notamment) et des éléments statistiques.
Dans la même veine, Netvibes a introduit en juin son Dashboard of Things (DoT) qui permet d’automatiser certaines tâches entre les données, les applications et les supports. A titre d’exemple, on peut créer une règle pour que, dès qu’une mention négative est détectée sur sa marque, un email soit envoyé à tout le département com et un sms directement au responsable des réseaux sociaux. Cela n’est pas sans rappeler l’outil gratuit IFTTT.
Le monde de la veille et des outils d’analyse français a récemment subi quelques chamboulements. Temis a été racheté par la société américaine Expert System. L’entreprise cherche ainsi à devenir le leader des technologies sémantiques pour l’informatique cognitive.
Et du côté des outils de veille, c’est Ami software qui a récemment annoncé son rachat par Bertin IT.
L’outil de surveillance des réseaux sociaux Mention a quant à lui introduit une nouvelle fonctionnalité appelée « Influencer Score ». Chaque source dispose maintenant d’un score (de 0 à 100) permettant d’évaluer son degré d’influence. Cela permet d’identifier ou de ne visualiser que les contenus de sources ou auteurs jugés très influents par exemple.
ANALYSE • Qualité des sources : un enjeu pour la veille
OUTILS DE VEILLE • Talkwalker, la veille de A à Z
SURF SUR LE NET
• Nouvelle version du site Outils Froids
• Un Epub rassemblant les billets d'enssibLab
• L'Elysée ouvre un compte Twitter de fact-checking
• Filtrer Twitter ou Facebook avec Nuzzel
• Datafari, un nouveau moteur de recherche à l'usage des entreprises
SOURCING
• Le meilleur des blogs de Mars-Avril 2015
• Twittliste : Infodoc sans frontières
Déjà abonné ? Connectez-vous...
Les longs débats qui se déroulent depuis plusieurs mois concernant le projet de loi sur le secret des sources des journalistes illustrent l’importance des sources dans ces métiers.
Il en est de même pour la pratique de la veille : en effet, la compétence des professionnels de la veille ne se limite pas à l’utilisation de solutions techniques de collecte automatisée ou de traitement. Le secret de la réussite, en matière de recherche d’information ou de veille stratégique, repose aussi en grande partie sur la qualité du sourcing, c’est-à-dire l’éventail des sources à utiliser, qu’il s’agisse de sources classiques (articles, études, données financières) ou issues du web social et temps réel (blogs, réseaux sociaux).
La qualité de l’information, et la qualification des sources, ont toujours été des enjeux importants pour les professionnels. La question devient de plus en plus cruciale avec le phénomène de massification et de mondialisation de la production d’informations. Depuis une quarantaine d’années en effet, chaque décennie apporte une nouvelle vague de sources et de supports d’informations : les bases de données en ligne et les grands serveurs d’information dans les années 70, les services télématiques dans les années 80, les premiers sites web dans les années 90, les blogs et réseaux sociaux dans les années 2000, le web temps réel et les données massives dans les années 2010...
Face à cette diversité de contenus, et d’outils, comment mettre en place des critères d’évaluation à la fois objectifs et efficaces ?
Les critères classiques d’évaluation de l’information sont ils toujours adaptés à ce nouveau paysage informationnel ? Comment le ciblage des sources peut-il constituer un remède à l’infobésité ? Quelles sources utiliser pour faire émerger des signaux faibles et tendances ? L’article tentera de répondre à ces questions.
Déjà abonné ? Connectez-vous...
La veille sur les réseaux sociaux est devenue en quelques années l’un des angles majeurs du processus de veille, se limitant au départ au giron des spécialistes de l’information « purs et durs » pour atteindre désormais les départements marketing et les community managers.
Nécessité d’identifier les influenceurs, désir d’obtenir une information pertinente, volonté d’analyser les retombées d’une campagne publicitaire… les raisons de cet intérêt sont nombreux, et il paraît peu probable que celui-ci se tarisse. Conséquence logique, les outils dédiés à la veille sur les réseaux sociaux ne cessent d’affluer.
Si Talkwalker paraît au premier abord faire partie de ces outils exclusivement dédiés aux réseaux sociaux, c’est qu’il existe pour le nouvel arrivant une certaine confusion concernant la fonction de l’outil. Talkwalker, l’outil dont nous parlons aujourd’hui, est en effet souvent confondu avec Talkwalker Alerts, le service d’alertes par mail gratuit proposé par la même société. Et quand il n’est pas confondu avec Talkwalker Alerts, il l’est avec Talkwalker Social Search, autre outil gratuit de la société (centré celui-là sur l’e-réputation). Or, Talkwalker Social Search est l’outil affiché par défaut lorsque l’on se rend à l’adresse « talkwalker.com », ce qui peut laisser croire que la version payante ne serait qu’une version plus puissante de l’outil d’e-réputation présenté en page d’accueil, centrée uniquement sur les médias sociaux.
Bien que la solution payante possède des points communs avec ses deux frères gratuits, elle est aussi non seulement bien plus poussée et riche en fonctionnalités, mais aussi très différente par nature. Talkwalker se définit en effet comme un outil de surveillance complet, ne se limitant pas à de la veille par mot-clé mais permettant aussi la surveillance de sites précis, intégrant non seulement un nombre important de médias sociaux (Twitter, Facebook, Linkedin, Instagram, SoundCloud, Vimeo…) mais aussi des fils d’agences de presse, des sites d’informations, des blogs… Talkwalker annonce dans sa communication 150 millions de sources, couvrant 247 pays dans 187 langues. Il a aussi pour ambition de ne pas se limiter à l’aspect collecte de la veille et intègre également d’importantes fonctionnalités d’analyses ainsi que de diffusion.
Talkwalker est donc un outil relativement complet, qui ne se limite pas aux médias sociaux mais vise le statut de solution de veille globale.
Déjà abonné ? Connectez-vous...
Christophe Deschamps, consultant et formateur en veille stratégique, intelligence économique, social KM et mindmapping, vient de relancer son site Outils Froids (http://www.outilsfroids.net), à la devise toujours aussi percutante et d’actualité « Un jour sans veille est un jour sans lendemain ».
On se réjouira que ce blog, démarré en 2003, revienne enrichir les pratiques et alimenter la réflexion des professionnels et de tous les usagers de la veille et des outils sociaux.
Deux premiers billets viennent d’être publiés sur Inoreader, l’agrégateur de flux RSS et Atom : le premier est consacré à la découverte de l’outil et le deuxième à l’intégration et la surveillance des medias sociaux dans Inoreader.