Google a récemment annoncé qu’il avait retiré le cache des pages Web dans les résultats du moteur. C’était pourtant une option bien utile quand une page ou un site n’était pas disponible.
Le cache est cependant toujours disponible si on utilise l’opérateur dédié dans la requête : cache:bases-publications.com
. Mais cette fonctionnalité a aussi vocation à disparaître dans les prochains mois.
Danny Sullivan, un des porte-parole de Google a expliqué que le cache « était destiné à aider les gens à accéder aux pages quand, à l’époque, on ne pouvait souvent pas compter sur le chargement d’une page. De nos jours, les choses se sont grandement améliorées. Il a donc été décidé de le retirer. »
Heureusement, il existe plusieurs options quand on souhaite visualiser l’historique d’un site ou quand il n’est tout simplement pas disponible. La plus connue et que l’on ne présente plus est la Wayback Machine proposée par Internet Archive (https://archive.org/), même si elle est loin d’être parfaite.
Une autre solution intéressante peut consister à utiliser le site CachedView (https://cachedview.nl/).
L'intelligence artificielle révolutionne le paysage médiatique en introduisant de nouvelles fonctionnalités telles que des résumés automatisés, des podcasts générés par l'IA, la traduction de contenu et des chatbots.
Si ces outils peuvent aider les professionnels de l'information à gagner du temps et à améliorer l'expérience utilisateur, ils ne remplacent pas le jugement et l'expertise humains. Il est crucial pour ces professionnels de s'adapter à ces changements en développant de nouvelles compétences et en se concentrant sur des tâches à plus forte valeur ajoutée pour rester pertinents dans l'ère de l'IA.
L’IA fait progressivement son chemin dans les produits, sites et contenus proposés par les médias en France et à l’international. Si en 2023, il s’agissait surtout de tests et de pilotes, en 2024, le nombre d’initiatives notables ne cesse de croître.
Et ceci est dans la plupart des cas généré grâce à de l’IA générative. Numerama le propose par exemple dans sa version payante. D’autres utilisent la génération de résumé cette fois-ci pour les commentaires des articles : c’est par exemple ce que propose l’Équipe depuis peu.
Inoreader est un agrégateur de flux RSS connu des professionnels de la veille qui sont particulièrement concernés par l’idée de se constituer un « second cerveau ». Ce dernier est capable de mémoriser l’information importante tout en facilitant sa disponibilité pour l’utiliser quand cela s’avère nécessaire. Jusqu’où et comment cet outil de veille peut-il contribuer à cette démarche ? Voici une méthode pas à pas.
L’idée de se construire un « second cerveau » digital, sorte d’externalisation de sa mémoire informationnelle est ancienne. Elle a été popularisée récemment avec succès par Tiago Forte (voir à ce sujet les articles de NETSOURCES N° 165, juillet-août 2023). Sa démarche se divise en quatre étapes, réunies sous l’acronyme CODE : Capturer, Organiser, Distiller et Exprimer.
Lire aussi :
Que valent les outils de reconnaissance faciale pour la veille image ou l’investigation ?, BASES N°414, Mai 2023
La veille et la recherche d’information à l’ère des « fake news » et de la désinformation, NETSOURCES N°140, Mai 2019
Tirer parti du fact-checking et du journalisme d’investigation pour la veille et la recherche d’information, NETSOURCES N°140, Mai 2019
Parmi les promesses de l’IA concernant les métiers de l’information, le fact-checking figure en bonne place. À côté des outils payants, figurent nombre d’outils gratuits ou peu onéreux qui pourraient s’avérer utiles aux professionnels de l’information pour combattre la désinformation… Mais qu’en est-il dans la réalité ?
Les contenus générés par IA sont largement susceptibles de divulguer de fausses informations. Vérifier si une information provient d’une IA constitue donc désormais une piste pour évaluer le niveau de fiabilité d’une source. Mais le contenu généré par IA est parfois tellement proche d’une production humaine dans sa forme, que nul ne peut dans ce cas faire la différence, si ce n’est… une autre IA.
Les « détecteurs d’IA » se multiplient ainsi sur la toile. Et ils peuvent détecter le texte, l’image, la vidéo ou même la voix, grâce notamment à l’analyse linguistique et à l’apprentissage automatique, à la recherche de modèles - les patterns - et d’attributs spécifiques indiquant la paternité de l’IA, tels qu’une faible variation dans la longueur des phrases et le choix des mots pour les textes, par exemple.
Produit documentaire classique, la newsletter a su devenir incontournable pour proposer des services, mais aussi valoriser des activités et l’image du service documentaire. Nous avons expérimenté deux outils de création et diffusion de contenus, Flashissue et MailChimp.
La newsletter fait partie des produits documentaires « vitrine » du service. Elle permet de communiquer auprès des utilisateurs sur divers sujets : nouvelles acquisitions du fonds documentaire pour les bibliothécaires et documentalistes, actualités du service, voire un panorama de presse dans le respect du copyright, sans oublier la valorisation de son expertise et image.
Utiliser un outil dédié permet non seulement de gagner du temps sur la mise en page, mais aussi de professionnaliser la production de la newsletter.
Depuis les années 90, l’Open Access, porté par l’essor d’Internet et la philosophie de la science ouverte, a profondément transformé l’accès aux publications scientifiques en démocratisant la diffusion des connaissances.
Cette révolution a été marquée par la création d’archives ouvertes et de moteurs de recherche académiques, facilitant l’accès, libre ou payant, à des articles scientifiques. Elle s’est amplifiée avec la création de plateformes avancées, des initiatives pour l’accès aux citations et résumés, et le développement d’outils dopés à l’intelligence artificielle qui améliorent l’accès, l’analyse, et l’utilisation des données scientifiques.
Tout en gardant à l’esprit les défis notamment en matière de financement et de droits d’auteur, nous avons exploré l’apport de ces ressources ouvertes aux chercheurs, veilleurs et documentalistes et les nouvelles possibilités d’interaction avec les données.
Il faut revenir aux années 90 pour voir émerger le mouvement de la science ouverte, principalement sous la forme de l’« open access », porté par la volonté de donner un accès libre et gratuit aux publications scientifiques.
Cela va se matérialiser au départ sous la forme d’archives ouvertes. L’archive ouverte ArXiv avec ses preprints, une des pionnières en la matière, a été créée en 1991.
La deuxième phase de développement se situe ensuite dans les années 2000 avec l’essor de l’Internet grand public. L’archive ouverte française HAL est ainsi lancée en 2001.
Beaucoup plus récemment, le développement des plug-ins d’accès à la littérature scientifique a permis de repérer beaucoup plus simplement un article disponible en libre accès quelque part sur le Web, éventuellement sous forme de preprint ce qui n’était pas toujours évident.
Par ailleurs, quand on parle d’open access, il faut bien distinguer :
● D’une part l’accès gratuit au document primaire (l’original);
● D’autre part l’accès à une plateforme ou à un moteur permettant de rechercher puis de visualiser gratuitement uniquement des références d’articles et de proceedings et aussi parfois de chapitres de livres.
Notre habitude est de construire des stratégies complexes, mêlant synonymes, mots écrits de différentes façons (crosslink ou « cross link » par exemple), avec des opérateurs booléens, de proximité, des possibilités d’exclure des thématiques et, enfin, de multiples possibilités de combiner des étapes. Autant le dire tout de suite, ces stratégies ne sont pas transposables en l’état dans ces nouveaux outils.
Pour réaliser nos tests, nous avons donc dû utiliser des stratégies relativement simples qui puissent fonctionner sur tous les outils. Nous nous sommes limités aux références d’articles ou de conférences, incluant les preprints qui sont de plus en plus pris en compte. En revanche nous n’avons pas, dans la mesure du possible, pris en compte les chapitres d’ouvrages et les thèses. Les recherches se font dans le titre, ce qui n’est pas toujours simple, certains systèmes n’offrant pas cette option, obligeant à faire des comptages manuels. Nous avons envisagé de tester une recherche par affiliation mais cette fonctionnalité n'est pas disponible dans tous les moteurs.
Cette comparaison entre les serveurs et les outils gratuits ne pouvant se faire que sur des stratégies simples, on laisse de côté la puissance de recherche et le confort d’utilisation pour ne comparer que le nombre de réponses. Par ailleurs, il est évident que ces tests n’ont aucune valeur statistique et que l’on ne peut rien généraliser à partir de leurs résultats.
En France, pays champion européen de l’open data, on parle souvent des startups qui parviennent à exploiter des données accessibles en accès gratuit, pour en faire des services, avec parfois une option payante, à l’instar de Pappers ou Doctrine.
Depuis la démocratisation de l’IA amorcée il y a plus d’un an avec la mise à disposition au public de ChatGPT, suivie depuis par d’autres IA génératives et services afférents, comment le traitement des données ouvertes a-t-il évolué et surtout, est-il davantage accessible à un utilisateur sans formation technique particulière en amont ? Exploration, étape par étape, du traitement des données, de l’extraction à la publication.
Première étape : la collecte des données. Celle-ci peut se faire de deux façons : en téléchargeant un dataset ou en procédant à l’extraction des données sur un document. C’est dans ce second cas que les outils IA interviennent. S’offrent alors deux possibilités d’extraction de données :
● Avec un outil IA où l’on importe un fichier de données.
● Avec un tableur habituel, auquel on ajoute un module IA.
Les outils IA qui permettent d’importer gratuitement des documents à traiter ne prennent pas en charge les formats de bases de données, mais uniquement les formats textes et PDF. Dans ce cas, extraire les données d’un document pour les récupérer sous forme texte ou de tableau est un jeu d’enfant.
L’année 2023 a été marquée par la démocratisation des IA génératives. Cette technologie de pointe, qui a émergé sur le marché en 2020, était alors réservée à quelques experts qui payaient une API. Amorcée par la mise sur le marché de l’interface gratuite ChatGPT d’OpenAI, dont la plupart des produits sont devenus payants dans les mois qui ont suivi, cette démocratisation pourrait néanmoins perdurer grâce au développement de modèles de langage sous licence ouverte (ou « open source »).
Cette licence permet en effet d’exploiter un modèle de langage pré-entraîné à moindres frais (moins de 500 dollars dans la plupart des cas et avec des ressources de calcul modestes), ouvrant ainsi l’accès à un large éventail de chercheurs, de développeurs et d’organisations.
Il existe néanmoins quelques freins pour que le veilleur puisse en profiter.
● L’étude du fonctionnement du système et l’inspection de ses composants ;
● L’utilisation de son système à n’importe quelle fin, sans avoir à demander la permission ;
● La modification du système pour changer ses recommandations, prédictions ou décisions afin de l’adapter à ses besoins ;
● Le partage du système avec ou sans modifications, à quelque fin que ce soit.