Pendant assez longtemps, la veille business et la veille scientifique et technique ont constitué des champs tout à fait distincts avec des compétences et ressources spécialisées bien définies pour les piloter, ainsi que des objectifs, des méthodes, des outils et des sources propres.
Puis la mise en place de plus en plus courante de veilles dites « innovation » a commencé à brouiller les frontières, mêlant informations concurrentielles et technologiques, et l’on constate que les spécialistes de la veille au sein des départements marketing et R&D de grands groupes travaillent étroitement ensemble pour fournir leurs analyses stratégiques au top management.
La veille IST a longtemps nécessité un véritable background scientifique et technique dans un domaine spécifique, quel qu’il soit (matériaux, énergie, agro-alimentaire, etc.), pour pouvoir exercer ce rôle efficacement. Pourtant, comprendre non seulement la pertinence, mais aussi l’apport de certains travaux scientifiques ou d’articles techniques n’est plus mission impossible pour celui qui n’est pas du sérail, et ce grâce au développement récent des outils d’intelligence artificielle qui changent la donne.
Bien sûr, un veilleur « généraliste » ne pourra jamais se hisser au niveau d'expertise d’un ingénieur spécialiste, mais l’IA va lui permettre en revanche d’élever sa compréhension des documents sans avoir de bagage spécifique et sans connaître tout le vocabulaire scientifique et technique spécialisé.
Pourquoi ? Parce que l’IA joue le rôle d’un véritable interlocuteur capable de s’adapter à n’importe quel niveau de connaissance et que la grande valeur des systèmes d’IA pour cet exercice est la capacité du chatbot à dialoguer et à reformuler inlassablement ses explications, comme le ferait finalement un excellent professeur !
L’outil d’IA va savoir en effet : répondre aux questions, aux demandes de précisions, de définitions, donner des explications simplifiées et compréhensibles par tous, supprimer les termes trop techniques, utiliser des analogies…
De plus, on sait bien que l’abstract disponible en anglais pour les articles scientifiques est souvent imprécis, trop généraliste ; il reste bien souvent une méta-description et ne permet pas réellement d’appréhender le contenu à valeur ajoutée de l’article.
Il est donc plus efficace de faire effectuer un nouveau résumé à partir du texte intégral lorsqu’on y a accès. Mais plutôt que de demander un simple résumé de l’article, le prompt devra spécifier un maximum de ces éléments :
Une fois ce premier résumé fourni par l’outil d’IA, on peut appliquer un deuxième traitement en poursuivant la conversation :
Déjà abonné ? Connectez-vous...
À l’arrivée de ChatGPT, nous avons vu fleurir sur le web et les réseaux sociaux une quantité de conseils sur l’art subtil de la formulation des prompts. On a vu également émerger une multitude d’outils et de bibliothèques de prompts prêts à l’emploi, souvent payants, adaptés à divers secteurs et types de questions (cf. FOCUS IA : maîtriser et gérer ses prompts - BASES no421- Janvier 2024). Cette révolution IA a même donné naissance à un nouveau métier : le prompt engineering, qui semble se professionnaliser de plus en plus.
Rappelons au passage qu’un prompt (ensemble d’instructions ou encore d’invites) est adressé à un modèle de langage (LLM) via une interface utilisateur, qui peut prendre la forme d’un chatbot (interface conversationnelle) pour générer des réponses ou des contenus spécifiques. Par exemple, Open AI a développé le modèle GPT (avec ses déjà nombreuses versions) et a mis à disposition des utilisateurs le chatbot ChatGPT.
Ces conseils et outils se concentrent principalement autour de ChatGPT, ce qui ne surprend pas au regard de la large et rapide démocratisation de l’IA générative qu’OpenAI a su orchestrer : il était urgent de fournir un « mode d’emploi » pour utiliser efficacement ce chatbot.
Cependant, une question fondamentale demeure : peut-on utiliser les mêmes prompts pour tous les modèles d’IA établis sur le marché (outre GPT : Gemini, Claude, Mistral, Llama principalement) ? Par exemple, Claude répond-il de manière aussi satisfaisante à un prompt conçu pour ChatGPT ?
Cette interrogation est d’autant plus naturelle que chaque modèle d’IA possède ses propres spécificités et capacités d’« intelligence générative » distinctes, fruit d’investissements colossaux et d’approches de développement différents. Cette diversité suggère qu’une stratégie de prompts sur mesure pour chaque modèle pourrait s’avérer efficace pour exploiter pleinement les forces de chaque modèle et de contourner éventuellement ses biais ou limitations.
Lorsqu’on utilise fréquemment l’IA générative, on comprend intuitivement que la qualité des réponses est liée à l’optimisation des prompts et que « défricher le raisonnement » du modèle peut aider. En effet, le raisonnement du modèle n’est pas uniquement statistique, et une compréhension approfondie de ses capacités peut améliorer l’efficacité des interactions.
Ils sont nombreux. Comment dialoguer et développer son interaction avec le modèle d’IA choisi alors que l’on ne sait pas vraiment quel est son profil et son « bagage culturel » initial ? Avec quelles données et langues a-t-il été « nourri » ? Les entreprises sont notoirement réticentes à divulguer les détails de leurs corpus d’entraînement pour des raisons de propriété intellectuelle et de concurrence.
Il faut admettre qu’il est difficile, même à partir de recherches dans la littérature spécialisée, de progresser au-delà d’un certain niveau de généralité dans l’optimisation des prompts. On reste souvent à un niveau expérimental.
Ainsi, notre approche issue de notre expérience personnelle sera pragmatique.
Distinguons tout d’abord deux types de cas d’usage, autour desquels nous axerons ces recommandations.
Pour des questions portant sur une « simple » demande de connaissance, il est possible de rester sur un niveau de requêtage simple, en s’exprimant clairement, mais sans besoin de structurer le prompt. On sera plutôt dans une interaction dynamique avec l’IA, qui propose souvent des reformulations et questions complémentaires.
En revanche, pour des tâches impliquant des opérations intellectuelles complexes, une préparation soignée du prompt sera indispensable, et c’est ici que notre question sur l’utilisation de prompts différenciés prend son sens.
Comment évaluer l’importance d’adapter et d’optimiser le prompt pour chaque modèle d’IA spécifique ?
Déjà abonné ? Connectez-vous...
Perplexity se définit comme un «moteur de réponses» innovant, combinant les fonctionnalités d’un moteur de recherche traditionnel avec celles d’un agent conversationnel alimenté par l’IA : une sorte d’hybride entre ChatGPT et Google Search.
Son ambition affichée est de concurrencer Google sur le marché de la recherche en ligne, en proposant une approche radicalement différente : plutôt que de fournir une simple liste de liens, Perplexity génère des réponses textuelles rédigées en s’appuyant sur des sources d’information récentes, variées et toujours indiquées en référence par l’outil.
La start-up californienne fondée en 2022 par un ancien d’Open AI, a rapidement attiré l’attention des investisseurs, atteignant une valorisation d’un milliard de dollars en 2024.
Le nom «Perplexity AI» fait référence à la notion de perplexité en théorie de l’information, qui mesure l’incertitude, mais il est utilisé ici de manière inverse. L’objectif de Perplexity AI est de réduire l’incertitude (ou la perplexité) des utilisateurs en fournissant des réponses claires et précises, transformant ainsi la haute perplexité en basse perplexité dans le domaine de la recherche d’information.
Pour fonctionner, Perplexity extrait les données d’internet au moment où la question lui est posée, de sorte que les réponses sont réputées être toujours à jour. Il s’appuie ensuite sur plusieurs modèles de langage, le sien propre mais aussi celui d’OpenAI, le modèle open source Llama de Meta ou encore Claude 3, pour produire ses réponses. De plus, il propose des questions connexes à la requête initiale (rappelant un peu les requêtes suggérées de Google), permettant ainsi d’affiner progressivement la recherche.
L’accès peut se faire sans obligation de créer un compte, via le site web de l’application ou une application mobile, avec fonction de recherche vocale disponible sur iPhone. Il existe enfin une extension Chrome qui permet d’y accéder à partir de n’importe quelle page web, de lui faire résumer la page ou répondre à des questions sur ce qu’elle contient.
Perplexity propose deux formules : une version gratuite qui ne contient pas de publicité et un abonnement Pro Search à 20$/mois. La version gratuite offre des recherches rapides illimitées en utilisant un modèle d’IA standard et cinq recherches Pro par jour, traitées avec une plus grande puissance de calcul. L’abonnement Pro débloque des fonctionnalités avancées telles que 600 recherches Pro quotidiennes, le choix entre différents modèles d’IA (GPT-4o, Claude-3, Sonar Large), l’analyse illimitée de fichiers PDF, et la génération d’images.
Les paramètres du profil utilisateur permettent de personnaliser l’expérience utilisateur, en choisissant la langue de l’interface, l’apparence, et même un avatar. De plus, les custom instructions ou instructions personnalisées, permettent d’améliorer et de personnaliser les réponses en fonction des besoins spécifiques de l’utilisateur, de sa langue et de sa localisation. Cette personnalisation améliore la pertinence des résultats et l’adaptent à un contexte professionnel spécifique.
Pour les recherches sensibles ou confidentielles, le mode Incognito s’avère particulièrement utile. Dans ce mode, le fil de discussion n’est pas utilisé pour entraîner les modèles de langage et n’est conservé que pendant 24 heures, sans apparaître dans l’historique des conversations. Il existe également un réglage d’effacement des données entrées dans le paramétrage du compte.
L’analyse de documents PDF et d’images, notamment d’infographies, est une fonctionnalité particulièrement appréciable pour les documentalistes et les veilleurs. Elle permet d’extraire rapidement des informations clés de documents complexes, facilitant ainsi le travail d’analyse et de synthèse.
Déjà abonné ? Connectez-vous...
Dans ce numéro, nous continuons à explorer les défis que représentent pour les professionnels de l’information l’entrée dans l’ère de l’intelligence artificielle, tout en examinant les nouvelles méthodologies, les retours d’expérience et les tendances actuelles qui façonnent nos métiers.
L’émergence des IA génératives, illustrée par le succès fulgurant de ChatGPT, marque un tournant dans nos pratiques. Véronique Mesguich, dans la nouvelle édition de son ouvrage «Rechercher l’information stratégique sur le web», introduit l’impact des IA génératives sur la veille stratégique et la recherche d’information. Si ces outils offrent de nouvelles perspectives d’analyse et de traitement des données, ils nécessitent une approche critique pour éviter les écueils d’informations inexactes ou biaisées.
Le passage d’une «culture de stock» à une «culture de flux» reste un défi majeur, comme le souligne notre article « Adopter une logique de flux... plus facile à dire qu’à faire ». Cette transition n’est pas simplement une tendance, mais une nécessité pour rester pertinents et efficaces. Il s’agit de transformer notre rapport à l’information, en favorisant la capture et l’exploitation en temps réel des données plutôt que leur simple accumulation.
Dans «Bonnes pratiques pour systématiser la surveillance de vos concurrents», nous découvrons des méthodes structurées pour maintenir une veille efficace sans être submergés par l’information. La clé réside dans la sélection rigoureuse des sources et l’automatisation des processus, permettant de se concentrer sur l’analyse et la prise de décision.
L’article «Le jour où j’ai voulu mettre en place une veille collaborative» offre un retour d’expérience précieux sur les défis et les succès de la veille mutualisée. Cette aventure, menée au sein d’une PME, démontre que la mutualisation des efforts peut transformer les pratiques individuelles en intelligence collective, malgré des obstacles organisationnels et humains à ne pas sous-estimer.
Rester agile et professionnel, ce sont deux des nombreux mots clefs qui résument les défis actuels de nos métiers. Face aux transformations, nous sommes invités à nous adapter constamment, à nous former sans relâche et à réinventer sans cesse nos rôles et pratiques au sein des organisations.
À l’aube d’une nouvelle ère de l’information bouleversée par l’intelligence artificielle, Véronique Mesguich nous offre une troisième édition actualisée et enrichie de son ouvrage « Rechercher l’information stratégique sur le web - Sourcing, veille et analyse à l’heure de l’IA », publié chez De Boeck Supérieur.
Cette troisième édition à jour explore l’univers des IA génératives et leur impact sur la recherche d’informations et la veille. On y découvre (après une préface d’Anne Marie Libmann), comment les IA transforment les pratiques de la recherche web, ainsi que des exemples concrets d’utilisation de l’IA pour l’extraction et l’analyse d’informations stratégiques.
L’ouvrage aborde également d’autres méthodes de recherche et de veille, basées sur la maitrise des sources et l’OSINT.
Anne-Marie Libmann : Est-ce que l’introduction des IA génératives dans cette nouvelle édition marque une véritable évolution par rapport à vos précédents ouvrages sur la veille stratégique ? Comment la décrivez-vous ?
Véronique Mesguich : Les grandes mutations arrivent souvent de façon inattendue… C’est le cas des IA génératives illustrées par le succès fulgurant de ChatGPT. Certes, les technologies mises en œuvre ne sont pas si récentes. Les premières IA basées sur les Transformers (cette technologie représentée par le T de GPT et du modèle de langage BERT de Google) sont ainsi apparues il y a plus de cinq ans. Mais le coup de génie d’OpenAI, c’est d’avoir rendu ces modèles de langage très largement accessibles via le principe des robots conversationnels.
Les IA génératives sont ainsi en train de bouleverser nos usages numériques, dans la sphère professionnelle comme dans notre vie quotidienne. Ces IA apportent une véritable disruption que j’explicite dans plusieurs chapitres du livre ; car on peut les appliquer aux différentes phases du processus de veille ou de recherche approfondie.
Les IAG peuvent interpréter (à défaut de comprendre réellement) des requêtes en langage naturel, en toutes langues, générer des réponses plausibles sous forme de texte rédigé et synthétiser en temps réel des réponses provenant de diverses sources. ChatGPT et ses concurrents n’ont pas été conçus comme des outils de recherche d’information, mais peuvent être mis en relation avec des moteurs de recherche ou des bases de connaissance, et jouer le rôle d’assistants personnalisés.
Là encore, l’idée n’est pas si nouvelle : cela fait plusieurs années que les moteurs de recherche (à commencer par Google) ont l’ambition de fournir aux utilisateurs « la » réponse à leurs questions (et non plus seulement des liens vers des réponses censées être pertinentes). Cela est rendu possible par plusieurs évolutions technologiques de ces dernières années : l’essor de l’apprentissage profond (deep learning), l’explosion du volume des données numériques, qui ont pu constituer une matière première pour l’apprentissage, et l’augmentation fulgurante de la puissance de calcul grâce aux processeurs graphiques. Sans oublier, bien sûr, le développement de modèles de langage et d’algorithmes très puissants.
Mais comme souvent, une nouvelle vague ne remplace pas ce qui existait avant : dans cette nouvelle édition, j’évoque largement l’impact des IA génératives sur la recherche et l’analyse de l’information stratégique, mais je détaille également des méthodes, des outils et des sources « classiques » qui demeurent incontournables ! Et j’ai ajouté dans cette troisième édition des nouvelles méthodes et outils d’investigation OSINT.
AML : Quel avenir pour Google, dont la situation semble inquiétante face aux IAG qui bouleversent son business model basé sur la monétisation des contenus référencés ? Comment imaginer l’avenir des moteurs de recherche et des sites en général ?
VM : Je ne me fais pas trop de souci pour la marque Google, même si on n’utilise désormais certainement plus le moteur comme on le fait depuis des années. Avec ses modèles de langage Gemini et Gemma, Google est en train de rattraper son retard par rapport à OpenAI. Des annonces ont été faites récemment concernant la généralisation d’ici la fin de l’année des « AI Overviews » (connus auparavant sous le nom de SGE), sous la forme d’une interface qui fournira des synthèses de réponses directement sur la page des résultats de recherche. Ce qui aura un impact considérable sur l’audience des sites, surtout dans certains domaines.
Pour autant, les débuts ne sont pas faciles : le lancement des AI Overviews a suscité récemment de nombreuses critiques des utilisateurs mécontents de réponses inexactes.
De façon plus générale, il est certain que les IA génératives vont avoir un impact sur l’évolution des interfaces utilisateurs. Par exemple, la navigation classique pourrait être remplacée par des assistants virtuels destinés à générer des réponses ou accomplir des tâches. Le SEO classique sera également impacté : il ne suffira plus de produire du contenu pour correspondre aux algorithmes de classement, mais de faire en sorte que ses contenus soient visibles dans les réponses générées par l’IA.
Ce qui est à craindre à mon sens, c’est la prolifération de contenus sans intérêt, très standardisés (sans parler bien sûr des contenus contrefaits et faux) générés par des IA. On le constate déjà sur le web, les réseaux sociaux… et jusqu’à la production d’articles académiques.
AML : Que penser des récents développements et partenariats entre les éditeurs de contenus et les acteurs de l’IA ?
VM : Les partenariats vont se multiplier… Le partenariat entre Le Monde et OpenAI, en mars dernier, a suscité de nombreuses questions, parmi les journalistes et aussi de la part d’autres médias. Bien sûr, il y a des enjeux financiers importants… et de nombreuses négociations sont en cours actuellement entre des éditeurs de contenus et les acteurs de l’IA, dans le domaine de la presse, mais aussi du droit et d’autres contenus spécialisés.
Il est important que les IA soient entraînées avec des contenus de qualité, et qu’il y ait davantage de transparence dans les sources utilisées, mais quel sera le bénéfice pour les utilisateurs ? Et quel modèle économique ? On risque là encore de se retrouver face à un éparpillement des accès aux contenus.
AML : Avec l’intégration rapide des IA génératives dans les pratiques professionnelles, comment les personnes que vous formez vivent-elles cette transition ? et comment analysez-vous les défis pour les professionnels de l’information ?
Déjà abonné ? Connectez-vous...
Une grande partie de la veille concurrentielle repose sur une surveillance de la presse, du web ouvert et des réseaux sociaux. Mais comment s’y prendre de façon structurée et systématique sans être noyé sous l’information ? Cet article a pour objectif de rappeler aux professionnels tous les flux à identifier pour être sûrs de ne rien laisser passer tout en maîtrisant le volume à traiter.
La première étape consiste évidemment à répertorier la liste des concurrents à surveiller. Dès ce stade, prenez le temps d’associer à chaque concurrent une ou plusieurs zones géographiques.
Il peut s’agir du pays ou de la région d’origine (généralement là où se trouve le siège), mais également et surtout des zones géographiques où la société a une activité : lieux d’implantation des usines, des centres de R&D (en allant si possible jusqu’au nom des villes) et plus globalement les pays ou les régions correspondant aux marchés sur lesquels il est présent et actif.
Pourquoi est-ce important ? Tout d’abord parce que cela va permettre de cibler des sources locales et des langues spécifiques, plutôt que de surveiller tous azimuts. De plus, les acteurs évoluant à l’international peuvent offrir des déclinaisons nationales de leurs sites web et comptes sur les réseaux sociaux, qu’il conviendra éventuellement de surveiller, comme on le verra dans la suite de cet article.
Déjà abonné ? Connectez-vous...
Mettre en place un projet de veille collaborative dans une entreprise où il n’existe pas de service veille et où les collaborateurs ont l’habitude de pratiquer une veille individuelle est un vrai challenge ! Retour sur mon expérience dans une PME, sur les succès, mais aussi les difficultés rencontrées.
Lorsque j’étais en charge de la Documentation d’un bureau d’études technique (130 personnes environ), j’ai tenté d’initier une démarche de veille collaborative avec mes collègues ingénieurs.
J’avais l’intuition que les ingénieurs faisaient de la veille dans leur coin et de mon côté, j’avais l’ambition de développer mon offre de service. Je réalisais jusque-là des activités documentaires traditionnelles (panorama de presse, gestion d’un portail documentaire…) et je souhaitais proposer un service de veille.
Avec l’accord d’un des membres du Comex auquel j’étais directement rattachée, j’ai mené une enquête quantitative auprès de l’ensemble de la société (Direction comprise) sur leurs pratiques informationnelles.
Dans le questionnaire, je demandais notamment aux répondants s’ils pratiquaient une veille et, si oui, sur quels sujets et combien de temps, ils accordaient à cette activité.
L’analyse des résultats de l’enquête m’a conduite à deux grands constats. D’une part, 65 % des répondants pratiquaient en effet une veille individuelle. D’autre part, 76 % se sont déclarés pour la mise en place d’un service de veille centralisé, avec un intérêt marqué pour une veille technique. Les domaines d’activité de ce bureau d’études évoluent vite et les ingénieurs avaient besoin d’être informés au plus vite des expérimentations technologiques, des nouveaux produits des industriels, etc.
Grâce à cette enquête, j’ai obtenu la légitimité nécessaire auprès de ma hiérarchie pour créer un service de veille.
Avec l’accord de la Direction, j’ai mis en place une veille pilote sur la « route intelligente » avec un des trois Départements de la société. Cette veille concernait une dizaine d’ingénieurs-chef de projets et directeurs de projet.
Déjà abonné ? Connectez-vous...
Le numérique a bouleversé les modèles traditionnels de gestion de l’information. Longtemps cantonnés à une approche statique avec des informations stockées sur des supports inertes, les professionnels doivent désormais appréhender un flot continu et dynamique de données. Ce virage vers une « culture de flux » implique une profonde mutation des pratiques.
La nécessité de passer d’une culture de stock à une culture de flux pour les métiers de l’information n’est pas nouvelle, pourtant elle peine toujours à être pleinement embrassée - et pleinement organisée - dans la pratique professionnelle.
En 2013, déjà, Caroline Sauvajol-Rialland, dans son ouvrage « Infobésité, comprendre et maîtriser la déferlante d’informations » (Éditions Vuibert, p.136), précisait : « en situation de surcharge informationnelle, il ne s’agit surtout pas d’archiver pour archiver et de multiplier les copies inutiles, mais de passer d’une logique de stock à une logique de flux, de passer de l’individu, qui porte la connaissance née de l’information, au collectif, qui produit de l’efficacité au sein du collectif ».
Dans la culture de stock traditionnelle, l’information est considérée comme un bien rare à accumuler et à préserver précieusement. Les connaissances sont ainsi rassemblées dans des bibliothèques, des archives ou des bases de données structurées. L’enjeu du documentaliste est ici d’organiser ces stocks pour en maîtriser l’accès et une diffusion contrôlée.
À l’inverse, la culture de flux voit l’information comme une ressource surabondante, renouvelée en continu par un afflux de données fraîches. La valeur réside alors moins dans la rétention que dans la capacité à capter, filtrer et exploiter ces flux en temps réel.
L’attention se déporte des stocks vers les canaux de diffusion dynamiques comme les réseaux sociaux ou les fils d’actualités. Dans ce cas, la donnée se consomme de manière ponctuelle et n’a souvent qu’une pertinence éphémère.
Basculer de paradigme n’est pas aisé. Cela suppose d’abandonner des réflexes ancestraux de thésaurisation pour embrasser la philosophie du flux, l’instantanéité et l’impermanence. Pour collecter, trier, hiérarchiser les informations pertinentes au sein de ces torrents de données, il devient impératif de repenser en profondeur les processus et les outils professionnels.
En termes de méthodologie, cela nous ramène à la constitution d’un « second cerveau numérique », terme popularisé par Tiago Forte qui a créé la méthode CODE (capturer, organiser, distiller, exprimer), comme nous l’avions vu dans NETSOURCES, n° 165, août 2023, consacré à cette problématique. Sans supprimer le stockage, ce dernier ne constitue plus qu’une première étape, sur un chemin de la connaissance qui en comporte trois autres.
Déjà abonné ? Connectez-vous...
Pour les professionnels de l’information, documentalistes, analystes ou chargés de veille stratégique, la production de présentations de grande qualité est devenue un must en termes de (re) présentation personnelle et de communication. Qu’il s’agisse de communiquer les résultats de leur veille, de leurs recherches ou de leurs activités, ils doivent choisir l’outil le plus adapté pour capter l’attention de leur audience et transmettre leur message avec clarté et efficacité.
L’IA a fait irruption sur ce segment en apportant beaucoup de créativité en termes de graphisme, mais aussi de contenu. Il faut donc désormais examiner les outils de production graphique à l’aune de ces deux critères.
Avec la multiplication des outils et applications promettant monts et merveilles en matière de présentation, on peut être tenté de se précipiter sur le plus « marketé ».
C’est ce que nous avions fait il y a plus d’un an avec Beautiful.ai, qui permet de générer une présentation à partir d’un simple prompt sur un sujet donné, prompt auquel on peut adjoindre un fichier détaillé contenant les données propres que l’on souhaite injecter dans la présentation. L’outil rapproche alors la problématique du prompt avec un certain nombre d’éléments en stock, déjà formatés (types de données et de graphes, templates, bibliothèques de visuels modernes) et génère en quelques secondes une présentation attrayante, assez proche de celles que l’on envie aux grands cabinets d’étude.
Fig.1 exemples de présentation issus du site web de beautiful.ai
Déjà abonné ? Connectez-vous...
Dans une ère caractérisée par la volatilité des données numériques et le développement de l’IA dans notre sphère informationnelle, le rôle des professionnels continue de se transformer. Ceux-ci doivent affirmer toujours plus leur rôle de médiateur entre la technologie et les utilisateurs, et développer une compréhension critique des outils proposés.
La suppression du cache par Google a mis en lumière la fragilité de notre accès aux informations historiques, et marque d’une certaine façon la fin de l’ère de l’accès instantané et illimité. Elle met également en évidence l’importance qu’il y a à élaborer des stratégies d’archivage et de recherche rigoureuses pour sauvegarder les contenus numériques.
L’intégration croissante de l’intelligence artificielle dans les pratiques médiatiques modifie profondément les méthodes de travail des journalistes, mais aussi des professionnels de la veille. L’automatisation de tâches telles que la transcription de podcasts et la synthèse d’articles vise à libérer du temps pour des analyses journalistiques plus poussées. Toutefois, cela nécessite une vigilance accrue de notre part pour garantir la véracité et de qualité des informations, dont les méthodes de production deviennent parfois opaques.
Le fact-checking, autrefois domaine réservé à l’expertise humaine, bénéficie maintenant d’un coup de pouce de l’IA. Cependant, la fiabilité de ces outils de contrôle dopés à l’IA doit être constamment évaluée et testée. Nous nous retrouvons dans une situation inédite : utiliser l’IA pour contrôler l’exactitude d’autres productions potentiellement issues de l’IA elle-même.
Enfin, les agrégateurs de flux RSS, comme Inoreader, proposent de nouvelles manières de gérer notre mémoire informationnelle. Ces outils, véritables extensions du cerveau humain, permettent un accès rapide à l’information tout en exigeant une utilisation judicieuse pour éviter la surcharge d’informations et assurer la conservation de l’essentiel.
À lire dans ce numéro :
Médias + IA : la nouvelle équation à laquelle il faut s’adapter
Second cerveau digital : jusqu’où Inoreader nous aide-t-il ?