Mettre en place un projet de veille collaborative dans une entreprise où il n’existe pas de service veille et où les collaborateurs ont l’habitude de pratiquer une veille individuelle est un vrai challenge ! Retour sur mon expérience dans une PME, sur les succès, mais aussi les difficultés rencontrées.
Lorsque j’étais en charge de la Documentation d’un bureau d’études technique (130 personnes environ), j’ai tenté d’initier une démarche de veille collaborative avec mes collègues ingénieurs.
J’avais l’intuition que les ingénieurs faisaient de la veille dans leur coin et de mon côté, j’avais l’ambition de développer mon offre de service. Je réalisais jusque-là des activités documentaires traditionnelles (panorama de presse, gestion d’un portail documentaire…) et je souhaitais proposer un service de veille.
Avec l’accord d’un des membres du Comex auquel j’étais directement rattachée, j’ai mené une enquête quantitative auprès de l’ensemble de la société (Direction comprise) sur leurs pratiques informationnelles.
Dans le questionnaire, je demandais notamment aux répondants s’ils pratiquaient une veille et, si oui, sur quels sujets et combien de temps, ils accordaient à cette activité.
L’analyse des résultats de l’enquête m’a conduite à deux grands constats. D’une part, 65 % des répondants pratiquaient en effet une veille individuelle. D’autre part, 76 % se sont déclarés pour la mise en place d’un service de veille centralisé, avec un intérêt marqué pour une veille technique. Les domaines d’activité de ce bureau d’études évoluent vite et les ingénieurs avaient besoin d’être informés au plus vite des expérimentations technologiques, des nouveaux produits des industriels, etc.
Grâce à cette enquête, j’ai obtenu la légitimité nécessaire auprès de ma hiérarchie pour créer un service de veille.
Avec l’accord de la Direction, j’ai mis en place une veille pilote sur la « route intelligente » avec un des trois Départements de la société. Cette veille concernait une dizaine d’ingénieurs-chef de projets et directeurs de projet.
Déjà abonné ? Connectez-vous...
Le numérique a bouleversé les modèles traditionnels de gestion de l’information. Longtemps cantonnés à une approche statique avec des informations stockées sur des supports inertes, les professionnels doivent désormais appréhender un flot continu et dynamique de données. Ce virage vers une « culture de flux » implique une profonde mutation des pratiques.
La nécessité de passer d’une culture de stock à une culture de flux pour les métiers de l’information n’est pas nouvelle, pourtant elle peine toujours à être pleinement embrassée - et pleinement organisée - dans la pratique professionnelle.
En 2013, déjà, Caroline Sauvajol-Rialland, dans son ouvrage « Infobésité, comprendre et maîtriser la déferlante d’informations » (Éditions Vuibert, p.136), précisait : « en situation de surcharge informationnelle, il ne s’agit surtout pas d’archiver pour archiver et de multiplier les copies inutiles, mais de passer d’une logique de stock à une logique de flux, de passer de l’individu, qui porte la connaissance née de l’information, au collectif, qui produit de l’efficacité au sein du collectif ».
Dans la culture de stock traditionnelle, l’information est considérée comme un bien rare à accumuler et à préserver précieusement. Les connaissances sont ainsi rassemblées dans des bibliothèques, des archives ou des bases de données structurées. L’enjeu du documentaliste est ici d’organiser ces stocks pour en maîtriser l’accès et une diffusion contrôlée.
À l’inverse, la culture de flux voit l’information comme une ressource surabondante, renouvelée en continu par un afflux de données fraîches. La valeur réside alors moins dans la rétention que dans la capacité à capter, filtrer et exploiter ces flux en temps réel.
L’attention se déporte des stocks vers les canaux de diffusion dynamiques comme les réseaux sociaux ou les fils d’actualités. Dans ce cas, la donnée se consomme de manière ponctuelle et n’a souvent qu’une pertinence éphémère.
Basculer de paradigme n’est pas aisé. Cela suppose d’abandonner des réflexes ancestraux de thésaurisation pour embrasser la philosophie du flux, l’instantanéité et l’impermanence. Pour collecter, trier, hiérarchiser les informations pertinentes au sein de ces torrents de données, il devient impératif de repenser en profondeur les processus et les outils professionnels.
En termes de méthodologie, cela nous ramène à la constitution d’un « second cerveau numérique », terme popularisé par Tiago Forte qui a créé la méthode CODE (capturer, organiser, distiller, exprimer), comme nous l’avions vu dans NETSOURCES, n° 165, août 2023, consacré à cette problématique. Sans supprimer le stockage, ce dernier ne constitue plus qu’une première étape, sur un chemin de la connaissance qui en comporte trois autres.
Déjà abonné ? Connectez-vous...
Pour les professionnels de l’information, documentalistes, analystes ou chargés de veille stratégique, la production de présentations de grande qualité est devenue un must en termes de (re) présentation personnelle et de communication. Qu’il s’agisse de communiquer les résultats de leur veille, de leurs recherches ou de leurs activités, ils doivent choisir l’outil le plus adapté pour capter l’attention de leur audience et transmettre leur message avec clarté et efficacité.
L’IA a fait irruption sur ce segment en apportant beaucoup de créativité en termes de graphisme, mais aussi de contenu. Il faut donc désormais examiner les outils de production graphique à l’aune de ces deux critères.
Avec la multiplication des outils et applications promettant monts et merveilles en matière de présentation, on peut être tenté de se précipiter sur le plus « marketé ».
C’est ce que nous avions fait il y a plus d’un an avec Beautiful.ai, qui permet de générer une présentation à partir d’un simple prompt sur un sujet donné, prompt auquel on peut adjoindre un fichier détaillé contenant les données propres que l’on souhaite injecter dans la présentation. L’outil rapproche alors la problématique du prompt avec un certain nombre d’éléments en stock, déjà formatés (types de données et de graphes, templates, bibliothèques de visuels modernes) et génère en quelques secondes une présentation attrayante, assez proche de celles que l’on envie aux grands cabinets d’étude.
Fig.1 exemples de présentation issus du site web de beautiful.ai
Déjà abonné ? Connectez-vous...
Dans une ère caractérisée par la volatilité des données numériques et le développement de l’IA dans notre sphère informationnelle, le rôle des professionnels continue de se transformer. Ceux-ci doivent affirmer toujours plus leur rôle de médiateur entre la technologie et les utilisateurs, et développer une compréhension critique des outils proposés.
La suppression du cache par Google a mis en lumière la fragilité de notre accès aux informations historiques, et marque d’une certaine façon la fin de l’ère de l’accès instantané et illimité. Elle met également en évidence l’importance qu’il y a à élaborer des stratégies d’archivage et de recherche rigoureuses pour sauvegarder les contenus numériques.
L’intégration croissante de l’intelligence artificielle dans les pratiques médiatiques modifie profondément les méthodes de travail des journalistes, mais aussi des professionnels de la veille. L’automatisation de tâches telles que la transcription de podcasts et la synthèse d’articles vise à libérer du temps pour des analyses journalistiques plus poussées. Toutefois, cela nécessite une vigilance accrue de notre part pour garantir la véracité et de qualité des informations, dont les méthodes de production deviennent parfois opaques.
Le fact-checking, autrefois domaine réservé à l’expertise humaine, bénéficie maintenant d’un coup de pouce de l’IA. Cependant, la fiabilité de ces outils de contrôle dopés à l’IA doit être constamment évaluée et testée. Nous nous retrouvons dans une situation inédite : utiliser l’IA pour contrôler l’exactitude d’autres productions potentiellement issues de l’IA elle-même.
Enfin, les agrégateurs de flux RSS, comme Inoreader, proposent de nouvelles manières de gérer notre mémoire informationnelle. Ces outils, véritables extensions du cerveau humain, permettent un accès rapide à l’information tout en exigeant une utilisation judicieuse pour éviter la surcharge d’informations et assurer la conservation de l’essentiel.
À lire dans ce numéro :
Médias + IA : la nouvelle équation à laquelle il faut s’adapter
Second cerveau digital : jusqu’où Inoreader nous aide-t-il ?
Google a récemment annoncé qu’il avait retiré le cache des pages Web dans les résultats du moteur. C’était pourtant une option bien utile quand une page ou un site n’était pas disponible.
Le cache est cependant toujours disponible si on utilise l’opérateur dédié dans la requête : cache:bases-publications.com
. Mais cette fonctionnalité a aussi vocation à disparaître dans les prochains mois.
Danny Sullivan, un des porte-parole de Google a expliqué que le cache « était destiné à aider les gens à accéder aux pages quand, à l’époque, on ne pouvait souvent pas compter sur le chargement d’une page. De nos jours, les choses se sont grandement améliorées. Il a donc été décidé de le retirer. »
Heureusement, il existe plusieurs options quand on souhaite visualiser l’historique d’un site ou quand il n’est tout simplement pas disponible. La plus connue et que l’on ne présente plus est la Wayback Machine proposée par Internet Archive (https://archive.org/), même si elle est loin d’être parfaite.
Une autre solution intéressante peut consister à utiliser le site CachedView (https://cachedview.nl/).
Le site permet d’interroger simultanément plusieurs sites d’archives du Web en l’occurrence Google Webcache (certainement plus pour longtemps), ainsi que la Wayback Machine, Archive.today, Library of Congress, Perma.cc, etc. directement intégrés dans l’outil (voir figure 1.) Le site propose même un bookmarklet à ajouter directement à son navigateur pour gagner du temps.
Figure 1. Interface de CachedView
Ces derniers temps, le marché des outils de veille a connu des changements importants avec notamment une consolidation du marché opérée via des rachats successifs.
● On se rappellera qu'il y a près de deux ans, Digimind avait été racheté par Onclusive, qui avait précédemment intégré Kantar Media ;
● Geotrend et Qwam ont été rachetés en 2023 par le groupe français Chapsvision qui avait déjà acquis la plateforme AMI Software par le passé. Et sur un autre secteur, Chapsvision vient également de racheter le spécialiste de la traduction Systran et Owlint, un acteur de l’OSINT.
● Hootsuite vient quant à lui d’annoncer le rachat de la plateforme luxembourgeoise Talkwalker.
● Enfin, KB Crawl a récemment acquis Iscope, un autre acteur de la veille.
● Quelques très gros acteurs tels que les Américains Onclusive, Cision (qui avait racheté l’Argus de la presse, Europresse et la plateforme de social média monitoring Brandwatch au cours des dernières années), le Français Chapsvision et le Norvégien Meltwater (qui avait racheté Linkfluence en 2021). Tous ces gros acteurs se positionnent comme des plateformes de veille multifonctions : media, web et social media monitoring, dataviz, etc.
Déjà abonné ? Connectez-vous...
L'intelligence artificielle révolutionne le paysage médiatique en introduisant de nouvelles fonctionnalités telles que des résumés automatisés, des podcasts générés par l'IA, la traduction de contenu et des chatbots.
Si ces outils peuvent aider les professionnels de l'information à gagner du temps et à améliorer l'expérience utilisateur, ils ne remplacent pas le jugement et l'expertise humains. Il est crucial pour ces professionnels de s'adapter à ces changements en développant de nouvelles compétences et en se concentrant sur des tâches à plus forte valeur ajoutée pour rester pertinents dans l'ère de l'IA.
L’IA fait progressivement son chemin dans les produits, sites et contenus proposés par les médias en France et à l’international. Si en 2023, il s’agissait surtout de tests et de pilotes, en 2024, le nombre d’initiatives notables ne cesse de croître.
Et ceci est dans la plupart des cas généré grâce à de l’IA générative. Numerama le propose par exemple dans sa version payante. D’autres utilisent la génération de résumé cette fois-ci pour les commentaires des articles : c’est par exemple ce que propose l’Équipe depuis peu.
Cela peut permettre de déterminer plus rapidement si un article est pertinent ou non pour sa veille ou sa recherche sans avoir à lire tout l’article dans le détail ou en diagonale.
On voit également des témoignages de médias qui utilisent l’IA pour la rédaction d’articles à faible valeur ajoutée (résultats de matchs, bâtonnage de dépêches, etc.) ou des tâches traditionnellement dédiées au secrétaire de rédaction (corrections, amélioration des titres, etc.).
D’autres vont même encore plus loin avec pour l’IA un rôle d’assistant de revue de presse ou de créateur de newsletters thématiques.
Semafor s’est ainsi associé avec Microsoft et OpenAI pour proposer un fil d’information basé sur l’agrégation de différentes sources. Les journalistes sélectionnent les sujets, l’IA propose différentes sources (différentes langues, pays, points de vue contradictoires), les journalistes évaluent les contenus retrouvés et écrivent eux-mêmes les résumés.
Autre exemple : la newsletter Artificielles proposée par Numerama. À partir du flux RSS associé au tag « IA » des articles de Numerama, l’IA extrait les 15 derniers articles et choisit les six qu’elle juge les plus importants. Elle se charge ensuite de proposer un titre, un résumé, un émoji et un lien vers l’article complet. Le contenu est ensuite vérifié et validé par des humains avant envoi.
Déjà abonné ? Connectez-vous...
Inoreader est un agrégateur de flux RSS connu des professionnels de la veille qui sont particulièrement concernés par l’idée de se constituer un « second cerveau ». Ce dernier est capable de mémoriser l’information importante tout en facilitant sa disponibilité pour l’utiliser quand cela s’avère nécessaire. Jusqu’où et comment cet outil de veille peut-il contribuer à cette démarche ? Voici une méthode pas à pas.
L’idée de se construire un « second cerveau » digital, sorte d’externalisation de sa mémoire informationnelle est ancienne. Elle a été popularisée récemment avec succès par Tiago Forte (voir à ce sujet les articles de NETSOURCES N° 165, juillet-août 2023). Sa démarche se divise en quatre étapes, réunies sous l’acronyme CODE : Capturer, Organiser, Distiller et Exprimer.
Lire aussi :
Que valent les outils de reconnaissance faciale pour la veille image ou l’investigation ?, BASES N°414, Mai 2023
La veille et la recherche d’information à l’ère des « fake news » et de la désinformation, NETSOURCES N°140, Mai 2019
Tirer parti du fact-checking et du journalisme d’investigation pour la veille et la recherche d’information, NETSOURCES N°140, Mai 2019
Entre l’utilisation de l’extension d’Inoreader pour mettre de côté ses articles (voir Figure 1) et la possibilité de surligner et d’annoter ses articles avec Inoreader, il semble ainsi possible de faire l’ensemble de la chaîne de la méthode CODE avec ce seul et même outil. Pour découvrir ce qu’il en est réellement, nous disposons de la version Pro d’Inoreader (6,67€/mois). Elle permet, contrairement aux deux autres versions, Gratuite et Supporter, de surligner les articles, de faire une recherche globale dans « tous les articles publics » (c’est-à-dire dans la base de données d’Inoreader et pas seulement au sein de ses propres feeds) mais aussi d’utiliser IFTTT et Zapier intégrés si besoin dans les options de connexion (il n’y a plus qu’à les sélectionner et à les activer).
Capturer, dans la méthode Code, c’est collecter l’information « au feeling », la mettre de côté sans trop réfléchir. Inoreader propose depuis des années à ses utilisateurs la fonctionnalité « À lire plus tard ». Et elle peut être utilisée de deux façons différentes.
Premièrement, au sein d’Inoreader. Les articles « Lire plus tard » sont installés par défaut dans la barre latérale de gauche et intégrés aux « Dossiers système ». On les collecte en un clic, lors de la consultation de sa veille ou d’une navigation web, sur un PC ou sur un mobile. Sur son ordinateur, l’extension Inoreader permet de collecter un article en cliquant sur l’icône et en choisissant « Lire plus tard » (voir Figure 1). Sur son mobile, l’appli permet d’utiliser un clic droit ou les fonctionnalités de partage pour classer son article dans le dossier « à lire plus tard ».
Figure 1. Avec l'extension Inoreader, on peut mettre de côté des articles consultés en ligne en un clic.
On retrouve les articles ainsi mis de côté dans son tableau de bord et dans son dossier « Lire plus tard ». Enfin, cette fonctionnalité est gratuite.
Deuxièmement, on peut aussi synchroniser les articles collectés avec Pocket, l’un des outils recommandés par Tiago Forte pour la phase de Capture. Mais si l’idée est de fluidifier et d’automatiser au maximum la gestion de l’information, exporter ses articles dès la première étape dans un autre outil n’est sans doute pas optimal. De plus, s’il est possible sur Pocket d’organiser ses informations gratuitement, les phases suivantes pour se constituer un second cerveau - telles que le surlignage, la recherche, ou la connexion à un outil de gestion de notes comme Notion (via Zapier), ne sont accessibles qu’à partir de 40 €/an. Or, ces fonctionnalités sont présentes dans la « Bibliothèque » d’Inoreader.
Par défaut les articles sont préorganisés et accessibles dans l’ensemble des dossiers suivants (voir Figure 2) :
● « À lire plus tard » ;
● La Bibliothèque pour les articles « Commentés », « Annotés », « Aimés », ou « Pages web Enregistrées » (voire « Récemment Lus »)
● Les Étiquettes, pour les articles tagués.
La méthode d’organisation de Tiago Forte a été popularisée sous le nom de PARA. Il s’agit d’organiser ses dossiers en suivant l’ordre de ce nouvel acronyme qui signifie : Projets (à court terme), Areas (domaines à long terme), ressources (où stocker les articles en attente de tri) et Archives (pour les articles concernant des projets inactifs).
Déjà abonné ? Connectez-vous...
Parmi les promesses de l’IA concernant les métiers de l’information, le fact-checking figure en bonne place. À côté des outils payants, figurent nombre d’outils gratuits ou peu onéreux qui pourraient s’avérer utiles aux professionnels de l’information pour combattre la désinformation… Mais qu’en est-il dans la réalité ?
Les contenus générés par IA sont largement susceptibles de divulguer de fausses informations. Vérifier si une information provient d’une IA constitue donc désormais une piste pour évaluer le niveau de fiabilité d’une source. Mais le contenu généré par IA est parfois tellement proche d’une production humaine dans sa forme, que nul ne peut dans ce cas faire la différence, si ce n’est… une autre IA.
Les « détecteurs d’IA » se multiplient ainsi sur la toile. Et ils peuvent détecter le texte, l’image, la vidéo ou même la voix, grâce notamment à l’analyse linguistique et à l’apprentissage automatique, à la recherche de modèles - les patterns - et d’attributs spécifiques indiquant la paternité de l’IA, tels qu’une faible variation dans la longueur des phrases et le choix des mots pour les textes, par exemple.
Ce qui ressort d’une comparaison des offres d’une dizaine d’outils, c’est que parfois ceux-ci sont couplés avec la détection de plagiat traditionnelle, dans ce cas cette fonctionnalité est payante. Inversement, les détecteurs de plagiat avec une offre gratuite proposent aussi une option de détection de génération IA, mais dans une version payante.
Il est donc possible de coupler deux outils gratuits, mais si l’on veut les deux fonctionnalités dans un seul outil, il faudra payer. Nous avons donc concentré nos tests sur les outils IA conçus spécifiquement pour repérer le contenu généré par les IA génératives.
Aujourd’hui, l’un des sites les plus médiatisés – 350 000 résultats dans Google.com – est GPTZero. Cet outil est intéressant, car il promet d’aller au-delà des outils conventionnels. Non seulement il vérifie si le texte est généré par une IA, mais il va plus loin en identifiant laquelle. Il peut donc, en théorie, vérifier si le texte est issu de plusieurs modèles de langage (ChatGPT, GPT, Llama, Bart, Claude, Falcon, Jasper), et même si ce texte provient d’un mix humain+IA. L’outil s’intègre également sous forme d’extension dans Microsoft Word, Google Docs ou Chrome pour scanner les pages du web. Et la version gratuite permet d’analyser jusqu’à 10 000 mots par mois (voir Figure 1).
Figure 1 : La présentation des résultats de GPTZero s’accompagne d’un pourcentage d’erreurs.
Il a donc été testé avec une excitation particulière due à son potentiel. Et là, patatras. En termes de résultats, nous lui avons fourni un texte 100 % humain. Il l’a détecté comme tel avec une probabilité de 82 %, avec une couleur indiquant un niveau de confiance « Incertain ». Mais un autre test avec du texte généré par ChatGPT (GPT 3.5) a été détecté comme humain avec une probabilité de 88 % (et un niveau de confiance modéré). Et au troisième test, il a détecté comme humain un texte généré par ChatGPT, avec 54 % de probabilité, assorti néanmoins d’un score de confiance rouge (incertain). Pourtant notre prompt n’était pas sophistiqué, nous nous étions contentés d’un « écris un article sur… »
Déjà abonné ? Connectez-vous...
Produit documentaire classique, la newsletter a su devenir incontournable pour proposer des services, mais aussi valoriser des activités et l’image du service documentaire. Nous avons expérimenté deux outils de création et diffusion de contenus, Flashissue et MailChimp.
La newsletter fait partie des produits documentaires « vitrine » du service. Elle permet de communiquer auprès des utilisateurs sur divers sujets : nouvelles acquisitions du fonds documentaire pour les bibliothécaires et documentalistes, actualités du service, voire un panorama de presse dans le respect du copyright, sans oublier la valorisation de son expertise et image.
Utiliser un outil dédié permet non seulement de gagner du temps sur la mise en page, mais aussi de professionnaliser la production de la newsletter.
L’un des avantages majeurs d’un outil professionnel est de pouvoir créer un modèle de newsletter que l’on pourra conserver et dont le graphisme et le logo joueront un rôle important dans l’identité du service.
Les deux outils proposent différents templates, mais l’utilisateur aura aussi la possibilité de partir d’une page blanche. Le modèle sera, quoi qu’il en soit, totalement personnalisable. Depuis l’emplacement et le nombre de blocs jusqu’à la couleur de la police, en passant par les informations contenues dans le pied de page.
Autre avantage majeur : l’ajout de contenu avec mise en page automatique. Par un « glisser/déposer » (« drag and drop »), l’utilisateur peut structurer sa newsletter : texte, image ou vidéo, nombre de colonnes, boutons d’action, renvoi vers les comptes de ses réseaux sociaux. Il peut aussi choisir de positionner le texte à gauche et une illustration à droite, ou bien l’inverse, ou encore une présentation en deux colonnes. Avec une mise en page propre, l’expéditeur renvoie ainsi une image professionnelle de son service.
Figure 1 : Sur Flashissue, les blocs de contenu sont présentés dès la page d’accueil.
Pour chaque bloc, l’utilisateur a accès à un éditeur de texte en mode « wysiwyg » (what you see is what you get). Il est possible d’ajouter différents types de contenu : texte, image ou vidéo, boutons d’actions et de partages… Pour le texte, on choisit la taille et le format, on peut aussi insérer un lien ou encore copier un texte issu de Word. Sur Flashissue, c’est ici que l’on pourra ajouter un lien « afficher dans le navigateur » (« view-in-browser link »).
Il est aussi intéressant de pouvoir personnaliser les couleurs utilisées dans la newsletter (textes, boutons, fond du template). Elles peuvent par exemple reprendre celles de la charte graphique de la tutelle
Déjà abonné ? Connectez-vous...
Depuis les années 90, l’Open Access, porté par l’essor d’Internet et la philosophie de la science ouverte, a profondément transformé l’accès aux publications scientifiques en démocratisant la diffusion des connaissances.
Cette révolution a été marquée par la création d’archives ouvertes et de moteurs de recherche académiques, facilitant l’accès, libre ou payant, à des articles scientifiques. Elle s’est amplifiée avec la création de plateformes avancées, des initiatives pour l’accès aux citations et résumés, et le développement d’outils dopés à l’intelligence artificielle qui améliorent l’accès, l’analyse, et l’utilisation des données scientifiques.
Tout en gardant à l’esprit les défis notamment en matière de financement et de droits d’auteur, nous avons exploré l’apport de ces ressources ouvertes aux chercheurs, veilleurs et documentalistes et les nouvelles possibilités d’interaction avec les données.
Nous avons également analysé la position de ce nouvel horizon informationnel par rapport aux bases de données scientifiques payantes traditionnelles, qui ont longtemps été considérées comme des piliers essentiels de la recherche au sein des services de documentation en raison de leurs capacités de recherche avancée et de leurs vastes volumes de données.
Pendant longtemps, ces deux mondes, libre et payant, ont évolué indépendamment. Les services d’information privilégiaient les bases de données payantes pour répondre aux besoins de leurs clients internes, chercheurs et ingénieurs. L’avènement d’outils disruptifs comme Google Scholar a progressivement rendu ces utilisateurs plus autonomes, les incitant à explorer d’abord le web scientifique ouvert avant de recourir aux services d’information. Et la boucle est bouclée : les professionnels de l’information, soucieux d’une recherche exhaustive et aussi des coûts, se tournent de plus en plus vers des ressources en accès libre.