Dans une ère caractérisée par la volatilité des données numériques et le développement de l’IA dans notre sphère informationnelle, le rôle des professionnels continue de se transformer. Ceux-ci doivent affirmer toujours plus leur rôle de médiateur entre la technologie et les utilisateurs, et développer une compréhension critique des outils proposés.
La suppression du cache par Google a mis en lumière la fragilité de notre accès aux informations historiques, et marque d’une certaine façon la fin de l’ère de l’accès instantané et illimité. Elle met également en évidence l’importance qu’il y a à élaborer des stratégies d’archivage et de recherche rigoureuses pour sauvegarder les contenus numériques.
L’intégration croissante de l’intelligence artificielle dans les pratiques médiatiques modifie profondément les méthodes de travail des journalistes, mais aussi des professionnels de la veille. L’automatisation de tâches telles que la transcription de podcasts et la synthèse d’articles vise à libérer du temps pour des analyses journalistiques plus poussées. Toutefois, cela nécessite une vigilance accrue de notre part pour garantir la véracité et de qualité des informations, dont les méthodes de production deviennent parfois opaques.
Le fact-checking, autrefois domaine réservé à l’expertise humaine, bénéficie maintenant d’un coup de pouce de l’IA. Cependant, la fiabilité de ces outils de contrôle dopés à l’IA doit être constamment évaluée et testée. Nous nous retrouvons dans une situation inédite : utiliser l’IA pour contrôler l’exactitude d’autres productions potentiellement issues de l’IA elle-même.
Enfin, les agrégateurs de flux RSS, comme Inoreader, proposent de nouvelles manières de gérer notre mémoire informationnelle. Ces outils, véritables extensions du cerveau humain, permettent un accès rapide à l’information tout en exigeant une utilisation judicieuse pour éviter la surcharge d’informations et assurer la conservation de l’essentiel.
À lire dans ce numéro :
Médias + IA : la nouvelle équation à laquelle il faut s’adapter
Second cerveau digital : jusqu’où Inoreader nous aide-t-il ?
Google a récemment annoncé qu’il avait retiré le cache des pages Web dans les résultats du moteur. C’était pourtant une option bien utile quand une page ou un site n’était pas disponible.
Le cache est cependant toujours disponible si on utilise l’opérateur dédié dans la requête : cache:bases-publications.com
. Mais cette fonctionnalité a aussi vocation à disparaître dans les prochains mois.
Danny Sullivan, un des porte-parole de Google a expliqué que le cache « était destiné à aider les gens à accéder aux pages quand, à l’époque, on ne pouvait souvent pas compter sur le chargement d’une page. De nos jours, les choses se sont grandement améliorées. Il a donc été décidé de le retirer. »
Heureusement, il existe plusieurs options quand on souhaite visualiser l’historique d’un site ou quand il n’est tout simplement pas disponible. La plus connue et que l’on ne présente plus est la Wayback Machine proposée par Internet Archive (https://archive.org/), même si elle est loin d’être parfaite.
Une autre solution intéressante peut consister à utiliser le site CachedView (https://cachedview.nl/).
L'intelligence artificielle révolutionne le paysage médiatique en introduisant de nouvelles fonctionnalités telles que des résumés automatisés, des podcasts générés par l'IA, la traduction de contenu et des chatbots.
Si ces outils peuvent aider les professionnels de l'information à gagner du temps et à améliorer l'expérience utilisateur, ils ne remplacent pas le jugement et l'expertise humains. Il est crucial pour ces professionnels de s'adapter à ces changements en développant de nouvelles compétences et en se concentrant sur des tâches à plus forte valeur ajoutée pour rester pertinents dans l'ère de l'IA.
L’IA fait progressivement son chemin dans les produits, sites et contenus proposés par les médias en France et à l’international. Si en 2023, il s’agissait surtout de tests et de pilotes, en 2024, le nombre d’initiatives notables ne cesse de croître.
Et ceci est dans la plupart des cas généré grâce à de l’IA générative. Numerama le propose par exemple dans sa version payante. D’autres utilisent la génération de résumé cette fois-ci pour les commentaires des articles : c’est par exemple ce que propose l’Équipe depuis peu.
Inoreader est un agrégateur de flux RSS connu des professionnels de la veille qui sont particulièrement concernés par l’idée de se constituer un « second cerveau ». Ce dernier est capable de mémoriser l’information importante tout en facilitant sa disponibilité pour l’utiliser quand cela s’avère nécessaire. Jusqu’où et comment cet outil de veille peut-il contribuer à cette démarche ? Voici une méthode pas à pas.
L’idée de se construire un « second cerveau » digital, sorte d’externalisation de sa mémoire informationnelle est ancienne. Elle a été popularisée récemment avec succès par Tiago Forte (voir à ce sujet les articles de NETSOURCES N° 165, juillet-août 2023). Sa démarche se divise en quatre étapes, réunies sous l’acronyme CODE : Capturer, Organiser, Distiller et Exprimer.
Lire aussi :
Que valent les outils de reconnaissance faciale pour la veille image ou l’investigation ?, BASES N°414, Mai 2023
La veille et la recherche d’information à l’ère des « fake news » et de la désinformation, NETSOURCES N°140, Mai 2019
Tirer parti du fact-checking et du journalisme d’investigation pour la veille et la recherche d’information, NETSOURCES N°140, Mai 2019
Parmi les promesses de l’IA concernant les métiers de l’information, le fact-checking figure en bonne place. À côté des outils payants, figurent nombre d’outils gratuits ou peu onéreux qui pourraient s’avérer utiles aux professionnels de l’information pour combattre la désinformation… Mais qu’en est-il dans la réalité ?
Les contenus générés par IA sont largement susceptibles de divulguer de fausses informations. Vérifier si une information provient d’une IA constitue donc désormais une piste pour évaluer le niveau de fiabilité d’une source. Mais le contenu généré par IA est parfois tellement proche d’une production humaine dans sa forme, que nul ne peut dans ce cas faire la différence, si ce n’est… une autre IA.
Les « détecteurs d’IA » se multiplient ainsi sur la toile. Et ils peuvent détecter le texte, l’image, la vidéo ou même la voix, grâce notamment à l’analyse linguistique et à l’apprentissage automatique, à la recherche de modèles - les patterns - et d’attributs spécifiques indiquant la paternité de l’IA, tels qu’une faible variation dans la longueur des phrases et le choix des mots pour les textes, par exemple.
Produit documentaire classique, la newsletter a su devenir incontournable pour proposer des services, mais aussi valoriser des activités et l’image du service documentaire. Nous avons expérimenté deux outils de création et diffusion de contenus, Flashissue et MailChimp.
La newsletter fait partie des produits documentaires « vitrine » du service. Elle permet de communiquer auprès des utilisateurs sur divers sujets : nouvelles acquisitions du fonds documentaire pour les bibliothécaires et documentalistes, actualités du service, voire un panorama de presse dans le respect du copyright, sans oublier la valorisation de son expertise et image.
Utiliser un outil dédié permet non seulement de gagner du temps sur la mise en page, mais aussi de professionnaliser la production de la newsletter.
Dans le cadre d’une veille technologique, souvent couplée à une démarche d’innovation/diversification, il peut être intéressant de surveiller non seulement les publications (articles, conférences, brevets), mais aussi les technologies cessibles.
Les technologies (à céder ou à licencier) peuvent constituer des compléments très pertinents et aussi des amorces de nouvelles collaborations. Ce peut être aussi l’occasion pour l’acquéreur d’une de ces technologies de gagner du temps, notamment en R&D et, éventuellement, de l’argent, en fonction des conditions de cession.
Ces technologies sont les résultats des travaux de chercheurs d’une université, d’une école d’ingénieur ou d’un centre de recherche. Elles peuvent faire l’objet d’une licence ou être vendues (en général, c’est le brevet qui est vendu). En effet, tous ces organismes cherchent à valoriser les technologies qu’ils ont développées en les cédant, car ils n’ont pas vocation à les emmener sur le marché, sauf en cas de création d’une startup.
Notre société de conseil FLA Consultants propose par ailleurs cette prestation de veille professionnelle, n'hésitez pas à nous contacter pour en savoir plus. Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser..
Nous ne nous sommes pas intéressés ici au cas des entreprises cherchant à valoriser des technologies, mais à celui des universités et des centres de recherches qui « produisent » des technologies.
En application de cette démarche, nous avons ainsi enrichi plusieurs veilles technologiques effectuées par notre cabinet FLA Consultants en cherchant des technologies cessibles dans leurs domaines technologiques, qui ont chez plusieurs clients suscité leur intérêt.
Les Sociétés d’Accélération du Transfert de Technologies (SATT) en France jouent un grand rôle dans le développement technologique des innovations issues de la recherche publique française.
Les SATT (Sociétés d’Accélération du Transfert de Technologies) sont au nombre de 13, réparties sur l’ensemble du territoire français. Ce réseau a été créé en trois vagues de 2012 à 2014 dans le cadre du Programme d’Investissement d’Avenir, selon un rapport du Sénat (1), « pour répondre à certaines lacunes du système de valorisation français ». Les SATT sont des SAS de droit privé. Les actionnaires « outre l’État par le biais de Bpifrance » sont tous des organismes publics (enseignement et recherche).
« Elles financent le développement technologique des innovations issues de la recherche publique française (laboratoires et centres de recherche) grâce à un fonds d’investissement (…) de 856 M€. ». Au moins certaines de ces SATT bénéficient de subventions de leur Conseil Régional et de fonds européens FEDER (Fonds Européen de Développement Régional). « Elles détectent, évaluent, protègent et conduisent ces inventions jusqu’au marché en les confiant à une entreprise existante ou à une future startup. »
Les SATT couvrent environ 165 établissements de recherche et 150 000 chercheurs/docteurs, ce qui représente environ 80 % de la recherche publique française. Plus précisément ces technologies ont, pour 44 % d’entre elles été à l’origine de la création de startups, 45 % ont été transférées vers des TPE/PME et 11 % vers de grands groupes.
Source : service de communication du réseau des SATT
Récemment, en particulier après l’organisation de Deep Tech Meetings, des conventions d’affaires ayant pour but de mettre en relation offreurs et demandeurs de technologie, le besoin est apparu d’une plateforme/marketplace regroupant des offres de technologies sélectionnées. Cela a conduit au lancement de la plateforme TECH-365.fr.
Celle-ci propose, à la date d’écriture de cet article, 387 technologies réparties au sein de quatre grandes filières stratégiques : Greentech, Numtech, Biotech et Medtech.
Ces technologies ont nécessairement fait l’objet d’une demande de brevet et sont à un stade de développement de TRL3 à TRL6 (2).
Cette plateforme pensée pour la prise de rendez-vous est dérivée de celle utilisée par la société Proximum qui organise de nombreuses conventions d’affaires dans le domaine des technologies tels Les Rendez-vous Carnot ou Techinnov.
Avec les modules complémentaires (appelés aussi « add-ons » et « add-ins ») des suites bureautiques de Microsoft et Google, il est possible de booster à l’IA ses logiciels de rédaction, tableurs et présentations. Cela permet de bénéficier des fonctionnalités de ChatGPT tout en restant dans son environnement de travail. Nous avons testé une douzaine d’extensions gratuites, et voici les quatre utiles à connaître.
Notre chouchou, et pas seulement car il est développé par une entreprise française ! Talarian a développé deux modules, un pour la suite Microsoft (Word+Excel) et un autre pour la suite Google (Docs+Sheets).
On les trouve sur le site de Talarian, sur la Marketplace de Google Workspace ou dans le catalogue de modules complémentaires de Microsoft, via notamment le menu. Pour faire fonctionner ce logiciel avec ChatGPT, il est nécessaire créer une clé API sur ChatGPT (voir le tuto réalisé par WeDoData).
Avec Excel ou Sheets, cette extension permet de nettoyer et d’enrichir sa base de données en introduisant directement dans son document les invites (ou prompts) prérédigées de ChatGPT. Le plus impressionnant est sans doute lorsqu’on extrait ou ajoute des informations en ligne en décrivant simplement son besoin en langage naturel, sans recourir à des formules complexes.
Par exemple, pour compléter une liste de noms d’entreprises avec leurs départements, numéros de téléphones ou les villes d’établissement, on ajoute une colonne et il suffit d’insérer une invite préenregistrée dans une cellule, comme
=GPT(« indique les numéros de téléphone »)
. Pour plus d’exemples, voir notre article Maîtriser l’open data et l’IA pour transformer et exploiter les données différemment, NETSOURCES N° 168, Janvier-février 2024.
Attention toutefois au risque d’hallucinations dans ce cas. Pour le limiter, penser au prompt, testé et approuvé « Si tu ne sais pas, n’invente pas
», qui réduit grandement la marge d’erreur. Sur Word et Docs, l’extension fonctionne en français et il est possible de créer ou modifier du texte.
La documentation brevet constitue une source inestimable d’information pour établir une veille technologique et concurrentielle, ou même évaluer la valeur d’une entreprise. Au moins une vingtaine de bases de données brevet totalement ou partiellement gratuit sont désormais disponibles sur le WEB. S’il est difficile d’établir une hiérarchie entre elles, deux produits se détachent du lot : Espacenet, produit par l’Office Européen des Brevets, et Patentscope de l’OMPI (Organisation Mondiale de la Propriété Intellectuelle). Quel produit choisir, et faut-il choisir ?
Le contenu d’une base de données brevet se décline en plusieurs éléments : offices couverts, sur quelle période, pour quelles données (données bibliographiques, texte intégral, etc.), et avec quel délai de disponibilité.
La couverture des deux services fait l’objet de pages Web dédiées régulièrement mises à jour.
Patentscope annonce couvrir 79 offices, et Espacenet 104 concernant les informations bibliographiques et 68 concernant le texte intégral. Toutefois, pour certains offices la couverture est très partielle, ou les mises à jour plus ou moins tardives, allant jusqu’à plus d’un an de délai à compter de la date de publication. Hors de ce cas de figure, on tombe côté Espacenet à 70 offices couverts pour les données bibliographiques et 33 pour les données de texte intégral ; côté Patentscope on arrive à 55 offices dont la couverture est régulière concernant les informations bibliographiques. ; par rapport au texte intégral, les plages couvertes n’étant pas précisées, seul le nombre de documents OCRisés l’étant, il est difficile de conclure.
Au vu des chiffres disponibles, et nonobstant quelques lacunes informationnelles, certaines différences non spectaculaires peuvent être notées concernant les six offices essentiels (Européen, Américain, Chinois, Japonais, Coréens et l’OMPI). Patentscope ne couvre pas les documents japonais antérieurs à 1964, là où Espacenet couvre à partir de 1961 pour les documents A (correspondant à la demande de brevet), et 1926 pour les B (correspondant au brevet délivré). On a aussi 2,5 ans supplémentaires de documents coréens de type Y sur Espacenet. Concernant les US, la période 1790 - 1835 est affichée comme disponible sur Patentscope. Mais cette période ne correspond à l’interrogation qu’à 1659 documents, et les données disponibles sont souvent très parcellaires.