I-EXPO 2017
• Entre intuition et méthodologie : la veille gagnante en 2017
• Veille, intelligence stratégique et concurrentielle : comment en faire des moteurs au service de l’agilité et des performances ?
RETOUR D’EXPÉRIENCE
• De la gestion de l’accès à l’information vers la création de connaissances via des dispositifs collaboratifs
ACTUALITÉS
• En bref
Déjà abonné ? Connectez-vous...
Cet atelier était organisé par FLA Consultants et animé par Anne-Marie Libmann, directrice opérationnelle, Lilia Rusnac, responsable du pôle International, Aurélie Vathonne, responsable du pôle Veille et Carole Tisserand-Barthole, rédactrice en chef de Bases et Netsources.
La conférence portait sur le profil et les compétences du veilleur dans l’entreprise d’aujourd’hui.
Anne-Marie Libmann a souligné en introduction le rôle d’observateur particulier de la société FLA Consultants, dû à son positionnement original :
Fort de ce positionnement, FLA Consultants observe une forte évolution que l’on pourrait même qualifier de changement de paradigme : le veilleur dans sa pratique et dans sa position n’est plus dans de nombreux cas un expert de l’information, mais un opérationnel qui a intégré une compétence de veille de façon pragmatique à des fins opérationnelles.
Ce n’est donc plus un spécialise de l’information au sens traditionnel du terme, mais plutôt un analyste qu’il serait sans doute plus pertinent de qualifier d’analyste veilleur, suggère Anne-Marie Libmann.
Nous sommes bien loin du modèle du passé, incarné par les centres de documentation, avec un accès unique et central à l’information et aux outils. Et appréhender la façon dont le nouvel « analyste veilleur » agit, réagit et interagit en 2017, n’est pas chose aisée, en raison des pratiques complexes et variées de ce métier, dont le positionnement a connu de fortes évolutions et en connaît encore. Ces évolutions, point de départ de la conférence, sont retracées dans l’encadré en page 3 (plus loin dans cet article).
Déjà abonné ? Connectez-vous...
Cette conférence rassemblait Patrick Devaux (VP Market Intelligence, Airbus), Gaspard Le Roux (Business intelligence analyst, Thales communication & security), Laetitia Nourissat Gourd (Ceo-founder, Decidento) et Valentin Naidja (Directeur Commercial EMEA/APAC chez Talkwalker).
Témoignant de leurs expériences personnelles respectives, les quatre intervenants ont répondu à la problématique suivante : comment faire de la veille le moteur de l’agilité et de l’innovation pour l’entreprise mais aussi de quelle manière organiser sa veille stratégique et concurrentielle et la placer au centre du business de l’organisation ?
Malgré la qualité et la diversité des intervenants, cette conférence n’a pas permis de détecter de concepts novateurs ou d’analyses évolutives et pratiques pertinentes, ni de visions qui tendent à dépasser la stricte définition ou encore les traditionnels obstacles et défis des pôles veille en entreprise.
Ainsi, la veille, son organisation et sa performance au sein de l’entreprise ont été principalement présentées à travers le prisme d’un processus très structuré, qui démarre nécessairement par le cadrage de l’expression des besoins du client avec parallèlement la réalisation d’un sourcing sur mesure. S’en suivent de facto la collecte, l’analyse et enfin la diffusion (interne/externe) de l’information. L’étape de diffusion a été évoquée comme essentielle pour valoriser la veille, par les intervenants et notamment Gaspard Le Roux (Thales) qui a par ailleurs mentionné que des sondages pouvaient être réalisés en interne afin de mesurer l’impact de la veille dans l’entreprise.
Dans une approche visant à renforcer la veille et son efficacité, Patrick Devaux (Airbus) a insisté sur la nécessité de travailler en réseau (interne et externe) et d’établir une veille transverse dans l’entreprise en organisant d’une part la remontée d’information et d’autre part une redistribution de celle-ci vers toutes les business units. De même, l’importance des spécialistes en langues étrangères a une fois encore été présentée comme très stratégique par les intervenants et en particulier Patrick Devaux, qui a également rappelé la nécessité d’une sensibilisation à la veille très tôt au sein des cursus universitaires et des formations en entreprise.
Marie-Laure Chesne-Seck est actuellement consultante pour le cabinet Ourouk, spécialisé en management de l’information. Après une carrière de chercheuse en biophysique, elle gère l’information scientifique, puis crée une fonction d’« Intelligence Scientifique » pour le public R&D d’un grand groupe pharmaceutique.
Dans le cadre d’une série de trois articles, où Marie-Laure Chesne-Seck partage son expérience de la transformation de la fonction info-doc, l’auteur a d’abord exploré1 les pistes suivies pour proposer une offre d’analyse à valeur ajoutée.
Lire aussi :
De la recherche d’information vers l’analyse à valeur ajoutée
De l’excellence opérationnelle à une externalisation maîtrisée
Rappelons que la feuille de mission qui m’était confiée était large, et comportait notamment la gestion de la transition avec l’offre de service de l’ancienne fonction info-doc, en accompagnant l’autonomisation des publics, la mise en place d’une offre d’« Intelligence scientifique » en support de la prise de décision, l’AMOA2 et l’animation de systèmes d’information collaboratifs, et enfin la gestion intelligente d’un budget destiné à l’outsourcing d’une partie de l’activité.
Les deux nouveaux systèmes d’information sur lesquels j’ai été appelée à travailler faisaient partie d’un large programme de refonte de l’ensemble des systèmes d’information destinés au public R&D, lequel incluait la mise en place d’une interface unique permettant d’accéder aux différentes bases de données. Les projets concernés par ce programme allaient du cahier de laboratoire au système de suivi de l’activité, en passant par l’analyse des données. L’idée était de lutter contre les « silos » entre départements, entre métiers, entre équipes en proposant des lieux numériques de discussion et de connaissance accessibles à tous, pour en finir avec les documents stratégiques perdus au fond d’un dossier ou d’une boîte mail.
La participation en tant qu’AMOA à des projets de gestion des connaissances faisait partie des besoins identifiés lors de la création de la fonction d’ « Intelligence Scientifique ». En effet, les équipes IT (DSI), faute de relais business dédié (souvent désigné comme « IT business partner »), finissaient souvent par prendre en charge à la fois l’AMOA et la MOE3, ce qui aboutissait à une insatisfaction de part et d’autre : pour les informaticiens, une surcharge de travail et la contrainte s’assumer des activités en dehors de leurs attributions naturelles ; du coté business, un sentiment de dépossession des problématiques IT, pourtant centrales pour la bonne marche de l’organisation.
Ainsi, la gestion de ces projets s’est faite « main dans la main » avec un chef de projet IT, plus spécifiquement chargé d’adresser les aspects techniques, l’AMOA étant donc chargé de porter les besoins métier.
Déjà abonné ? Connectez-vous...
Claritive Analytics qui a récemment racheté les activités Propriété Intellectuelle de Thomson a annoncé son intention d’investir dans Web of Science en élargissant sa couverture de l’ « Emerging Sources Citation Index ». L’index passera ainsi de 5 000 revues émergentes à 7 500 et ce sont dix années d’archives qui seront également proposées dans le cours de l’année.
Les « fake news » et la désinformation ne cessent de faire la Une des médias en cette période d’élection. Facebook et Google se sont eux-mêmes lancés dans la course au fact checking en proposant un meilleur contrôle du contenu partagé en ligne et en lançant ou en s’associant à des outils et projets de fact checking, en l’occurrence de vérification des informations.
En France, plusieurs initiatives coexistent depuis plusieurs années mais le dernier en date vient d’être lancé par le quotidien Libération. Checknews (http://checknews.fr/), c’est son nom, se définit comme un moteur de recherche humain pour lutter contre la désinformation. Les internautes posent leurs questions sur le moteur : si une réponse à cette question existe déjà, il est renvoyé vers cette réponse. Dans le cas contraire, sa question va être traitée par un journaliste qui va se charger de vérifier les faits et rédiger une réponse.
Seul bémol : Libération ne semble pas avoir anticipé le succès de son moteur qui affiche, quelques jours à peine après son lancement, un message de maintenance car les journalistes sont noyés sous le flux de questions et préfèrent les traiter avant d’en accepter de nouvelles.
Chatbotet intelligence artificielle sont les sujets du moment. Le moteur Bing est actuellement en train de tester un système de chatbot au niveau de ses résultats de recherche. Pour le moment, cela est limité à quelques villes américaines et n’est utilisable que dans le cas d’une recherche de services (restaurants par exemple). Le chatbot est ainsi capable de répondre à quelques questions basiques comme les horaires d’ouverture ou les possibilités de parking à proximité. Reste à voir si dans les années à venir les chatbots seront pertinents et en mesure d’être utilisés dans un cadre professionnel, ce qui est encore loin d’être le cas.
Face à Google et dans une moindre mesure à Bing, quelques moteurs français tentent d’attirer l’attention vers leurs propres solutions, sans grand succès pour le moment. C’est le cas de Qwant, un moteur dont nous avions déjà eu l’occasion de parler dans l’article « Alternatives à Google : est-ce vraiment utile ? » ( Netsources n°125 - Novembre/Décembre 2016). Il ressortait à l’époque que les résultats étaient très proches de ceux de Bing mais avec moins de fonctionnalités de recherche. Peu d’intérêt pour le professionnel de l’information donc !
Mais la start-up a récemment annoncé qu’elle utilisait les supercalculateurs de Nvidia pour développer le machine learning et améliorer la performance de son moteur. Nous retournerons tester le moteur d’ici quelques mois pour vérifier s’il mérite enfin sa place dans la panoplie du veilleur.
D’autre part, un nouveau moteur français vient de faire son apparition : Xaphir qui a été lancé en mars dernier. Son but : faire sortir l’utilisateur de sa bulle de filtre. Le fonctionnement est d’ailleurs original et essaye de sortir de la recherche par mots-clés et du système de PageRank. L’utilisateur est invité à valider les contenus pertinents et supprimer ceux qui ne le sont pas. Nous avons fait quelques tests et les résultats sont pour le moment dramatiquement mauvais... Comme pour Qwant, nous reviendrons le tester dans plusieurs mois...
Il y a quelques mois nous vous annoncions que Google allait séparer son index en deux : l’un pour la recherche sur ordinateur et l’autre pour la recherche mobile. Alors que le lancement était initialement prévu pour bientôt, il semblerait que le projet ait pris du retard. Google parle maintenant de 2018.
Surveiller Twitter sans disposer d’une plateforme de veille payante n’est pas une mince affaire et le plus simple consiste à avoir recours aux flux RSS. Mais Twitter les a supprimés il y a quelques années... Et comme, nous avons déjà eu l’occasion de le mentionner à plusieurs reprises dans Bases, les principaux médias sociaux comme Twitter, Facebook ou encore LinkedIn ne cessent de restreindre l’accès de leurs services à des applications et outils tiers afin que leurs utilisateurs soient obligés de passer par leur plateforme pour la moindre de leurs actions.
Heureusement, de nouveaux services continuent de voir le jour régulièrement. C’est le cas du Twitter RSS Feed Generator proposé par Duplicate (http://bit.ly/2pveqdd) qui permet de créer des flux RSS sur des listes Twitter, des hashtags et même des recherches dans le moteur de Twitter. L’outil est simple et ergonomique. Il ne reste plus qu’à espérer qu’il ne disparaîtra pas d’ici la fin de l’année...
Parmi les outils de veille et de curation dont nous avons régulièrement l’occasion de parler, on note un certain nombre de nouveautés et d’évolutions des fonctionnalités.
Brandwatch, la plateforme de veille sur les médias sociaux à laquelle nous avions consacré un article dans le n°126 (janvier/février 2017) de Netsources vient d’annoncer un « nouveau partenariat stratégique avec Twitter ». Pour le moment, peu de détails mais on sait déjà que Brandwatch disposera d’un accès complet aux données de Twitter, accèdera à l’ensemble des produits développés par Twitter et qu’ils travailleront ensemble pour développer de nouvelles solutions sur le marché.
Comme on l’a dit, les médias sociaux restreignent de plus en plus l’accès à leurs données via des applications tierces. Il peut donc être intéressant de prendre cet aspect en considération dans le choix d’un outil. Rappelons que Brandwatch n’est pas le seul acteur à disposer d’un partenariat avec Twitter : on pourra citer également Sprinklr, Sysomos ou encore Talkwalker.
Parmi les autres nouveautés :
- Le logiciel de veille WebsiteWatcher offre une meilleure prise en compte des flux RSS dans la dernière version de son logiciel. Rappelons qu’il s’agit d’un outil de surveillance de pages Web, peu ergonomique certes mais très efficace et peu coûteux.
L’ouverture des données en France continue sa route.
La SNCF qui s’était lancée dans l’aventure en 2012 vient d’ajouter une centaine de jeux de données. La plateforme Open data https://ressources.data.sncf.com propose donc désormais presque 200 jeux de données différents.
Depuis le 1er mai, l’administration fiscale rend accessible au grand public les données contenues sur son service en ligne Patrim dédié aux transactions immobilières. Créé en 2013, il recense les informations essentielles, mais anonymisées, de toutes les transactions immobilières. La recherche est désormais gratuite mais il faut cependant renseigner son numéro fiscal et son revenu fiscal de référence pour y accéder.
Quelques mois après la promulgation de la loi pour une République numérique, le service public de la donnée fait ses débuts avec les premières bases de données de référence et le lancement d’un espace dédié sur la plateforme data.gouv.fr : www.data.gouv.fr/reference.
Neuf bases de données sont pour le moment disponibles :
Le secteur de l’énergie en France semble s’intéresser de près à l’Open Data avec plusieurs projets en cours.
D’une part, Engie va prochainement ouvrir les données de son parc éolien de Haute-Borne dans la Somme.
D’autre part, RTE et GRTgaz ont annoncé le lancement de la plateforme opendata.reseaux-energies.fr qui donne accès à « un ensemble de données de production et de consommation d’énergie au niveau national mais aussi local ».
SALON / CONFÉRENCE • i- expo 2017, un bilan contrasté
I-EXPO 2017
• Chez Sindup, analyse et chatbot au programme
• Intelligence artificielle, mobilité, collaboratif, data intelligence, traitement avancé des datas : comment la transformation digitale transforme l’information et la veille ?
• Cikisi, Newscrush et Trafalgraph : de nouveaux visages, p. 4 • Entre outils gratuits et outils payants, quelles nouvelles méthodes efficaces de veille et de recherche sur le web visible et invisible ?
RETOUR D’EXPÉRIENCE • De la recherche d’information vers l’analyse à valeur ajoutée
Déjà abonné ? Connectez-vous...
i-expo, le salon de l’information et de la veille s’est tenu au Parc des expositions à Paris les 21, 22 et 23 mars derniers. Comme l’année dernière, il était regroupé avec plusieurs autres salons, en l’occurrence IC&R (Intranet Collaboratif & RSE), Solutions RH et eLearning expo.
En revanche, alors que nous avions pu noter l’an dernier un nouvel engouement et un vent de fraîcheur sur ce salon qui existe depuis de nombreuses années le bilan est cette année beaucoup plus contrasté.
D’après ce que nous avons pu voir, l’affluence était indéniablement moindre dans les allées du salon mais les différentes conférences et ateliers faisaient eux salle comble. A se demander si les visiteurs ne se rendaient pas directement en salle de conférence pour repartir immédiatement après...
La tenue du salon Documation à peine une semaine après peut probablement expliquer en partie cette baisse de fréquentation, les visiteurs ayant probablement fait un choix entre les deux.
D’autre part, on constate d’année en année chez les exposants la disparition des fournisseurs de prestations intellectuelles en veille ou recherche d’information, des serveurs et bases de données, des éditeurs et des outils de recherche. Cette année, la quasi-totalité des exposants pouvaient se ranger dans la catégorie des éditeurs de logiciels (plateformes de veille, RSE et même logiciels de messagerie collaborative...). De ce fait, difficile d’avoir une vision panoramique du marché de la veille et de l’information alors que seul un pan en est représenté.
Néanmoins, nous avons eu l’occasion d’assister à plusieurs conférences et ateliers tout à fait intéressants, de découvrir quelques nouveaux acteurs ainsi que les dernières nouveautés des acteurs déjà présents. Ce sont sur ces différents éléments que nous revenons dans ce numéro.
Parmi les acteurs déjà installés sur le marché, Sindup nous a présenté ses dernières nouveautés.
Nous avions déjà eu l’occasion d’écrire un article sur Sindup à l’été 2015 dans Netsources dans le cadre d’un dossier spécial consacré aux outils de veille (Netsources n°117 - Juillet/Août 2015).
Depuis cette date, la plateforme a évolué, graphiquement d’abord mais aussi en termes de fonctionnalités.
Parmi les principales nouveautés, on citera :
Mais la grande nouveauté qui est apparue depuis la rédaction de notre premier article, c’est le lancement de dashboards personnalisables pour la phase de capitalisation, d’analyse et de diffusion de la veille (voir figure 1.). Dans notre article de 2015, l’un des principaux points faibles de Sindup se situait justement au niveau de l’analyse.
Déjà abonné ? Connectez-vous...
La conférence inaugurale d’i-expo rassemblait Marie-Hélène Ahamada Bacari (Responsable département Veille, Total), Bruno Etienne (Président, KB Crawl), Vincent Boisard, (PDG, Coexel), Antoine Perdaens (CEO, Elium, ex-Knowledge Plaza) et Bernadette Plumelle (Vice-présidente des secteurs de l’ADBS).
Avant d’entrer dans le vif du sujet, les différents intervenants ont été invités à définir leur vision de la transformation digitale.
Pour Antoine Perdaens, la transformation digitale est en route déjà depuis un moment avec la notion de mobilité. Ce qu’il y a de vraiment nouveau, c’est l’intelligence artificielle. Pour Bruno Etienne, on se trouve actuellement à la convergence de plusieurs disciplines et l’on cherche désormais à rassembler l’intelligence artificielle, le big data et la veille.
La conférence s’est ensuite déroulée autour de trois grands thèmes :
Déjà abonné ? Connectez-vous...
Parmi les nouveaux acteurs, nous avons retenu trois noms : Cikisi, Newscrush et Trafalgraph.
Cikisi est une nouvelle plateforme de veille, dans la même veine que des outils comme Digimind, Sindup, Talkwalker, etc. Acronyme de « Catch It, Keep It, Share It », l’outil a récemment été lancé par une start-up belge du même nom.
Elle se veut à la fois plateforme de veille mais également outil de recherche. Le créneau des fondateurs de Cikisi et qui diffère d’un certain nombre de plateformes actuelles est celui d’un sourcing fin et précis réalisé par le client lui-même plutôt qu’un gros corpus de sources déjà paramétré sur lequel le client n’a pas toujours la main.
A la vue de la démonstration à laquelle nous avons assisté, l’outil semble prometteur... Nous aurons l’occasion d’en faire un article détaillé dans Netsources d’ici la fin de l’année.
Newscruch et Trafalgraph sont deux start-ups françaises issues du même incubateur. Même si les deux produits sont différents, le premier utilise la technologie du second pour son système de recommandation de contenu.
Déjà abonné ? Connectez-vous...