Nous signalons ici un post très intéressant sur le site de CLARIVATE : “'Sleeping beauties’: Yesterday’s findings fuel today’s research breakthroughs”
Valentin Bogorov, l’auteur, explique en se basant sur de nombreux exemples que l’art antérieur récent ou les connaissances les plus récentes ne sont pas nécessairement les plus intéressantes à prendre en compte dans la recherche.
Les exemples qu’il cite proviennent de domaines très différents. Il illustre son propos avec l’évolution des citations d’un article publié en 1948 intitulé “An Approach Toward a Rational Classification of Climate” écrit par Charles W. Thornthwaite, un éminent géographe et climatologue américain qui a peu retenu l’attention jusqu’à l’année 2 000. À aujourd’hui, il a été cité plus de 5 900 fois par des chercheurs de 143 pays, sachant que plus de 90 % des citations sont postérieures à l’an 2000.
CLARIVATE est l’éditeur du Journal Citation Reports. Il produit le facteur d’impact (Impact Factor) qui est calculé par une formule qui prend en compte le nombre de citations des articles d’une publication.
Bien qu’il soit controversé, le facteur d’impact est l’indicateur de la notoriété d’une publication le plus utilisé actuellement. Il contribue, en particulier, à évaluer la qualité du travail des chercheurs.
Pour l’édition 2024, 17 publications ont perdu leur facteur d’impact à cause d’une suspicion de manipulation des citations. Il leur est reproché, en particulier, d’avoir abusé des autocitations.
Grâce à La licence Creative Commons CCBY 4.0, l’OCDE adopte un modèle libre d’accès. Le site offre un catalogue de près de 30 000 éléments consultables, téléchargeables et partageables.
Nouvelle étape pour la longue vie de la banque de données Delphes qui était commercialisée ces dernières années par IndexPresse.
Businesscoot, spécialiste français des études sectorielles rachète Indexpresse. Cela conduira à l’offre SectorGPT qui grâce aux informations des études ajoutées à celles de la banque de données Delphes proposera des recherches sectorielles en utilisant l’IA.
Les réponses sont annoncées comme fiables et traçables.
L'IA générative est un facteur potentiel de redéfinition du paysage médiatique, transformant en profondeur la manière dont les contenus sont créés et distribués. Elle menace ainsi les modèles économiques traditionnels qui reposent fortement sur les droits d'auteur pour générer des revenus.
Lire aussi : Le droit d’auteur face à l’IA générative : Interview de Philippe Masseron (gf2i) sur les enjeux juridiques et économiques des métiers de l’information et de la donnée.
Comme nous l’avons décrit dans notre récent article de BASES : « ResearchGate développe ses liens avec les éditeurs », ce réseau social continue à développer son activité d’agrégateur.
Il a ainsi chargé récemment :
Deux rapports influents sur les médias, tout juste publiés, ont retenu notre attention dans la perspective des enjeux liés au droit d’auteur et à l’utilisation des sources, notre ressource primaire.
Le rapport intitulé « Un journalisme de confiance à l’ère de l’IA générative » publié par l’European Broadcasting Union, basé sur des entretiens avec 40 personnalités influentes des médias et des universitaires, souligne que l’utilisation d’IA pour réutiliser des contenus protégés sans mentionner explicitement les sources risque de nuire à la création originale et menace la survie du secteur créatif.
Philippe Masseron du gf2i (Groupement français de l’industrie de l’information) nous éclaire sur les enjeux cruciaux du droit d’auteur à l’ère de l’IA générative. Entre risques de prédation massive des contenus et opportunités d’accès et d’innovation portées par l’IA, les acteurs de la création et de l’information doivent se mobiliser pour défendre leurs intérêts et repenser leurs modèles de valorisation.
Le rôle d’instances comme le gf2i sera clé pour peser dans les débats législatifs en cours et créer les nouveaux équilibres dans l’économie de la donnée.
Expert en droit de la propriété littéraire et artistique et en gestion de droits
Après des études juridiques (DEA en Finances publiques et Fiscalité – Paris 2) et en Information Communication (Institut Français de Presse – Paris 2), Philippe MASSERON a successivement occupé les postes de directeur juridique et directeur général au CFC (Centre Français d'exploitation du droit de Copie).
Il est administrateur du gf2i (Groupement Français de Industries de l'Information) délégué à la prospective. Il participe régulièrement aux missions du CSPLA.
Anne-Marie Libmann (AML) : Comment définissez-vous le problème de fond sur la question du droit d’auteur par rapport aux systèmes d’intelligence artificielle générative (SIAG) ?
Philippe Masseron (PM) : Nous assistons à une réaccélération et une amplification massive du phénomène de scraping, fouille et crawling des données. Cela n’est pas nouveau, nous avons déjà été confrontés à des situations similaires par le passé qui ont suscité de vives inquiétudes, comme lors du lancement de Google Books ou des grands programmes de numérisation des bibliothèques. Mais l’échelle et la vitesse ont changé. Aujourd’hui, il existe d’immenses bases de contenus protégés accessibles, notamment dans le domaine scientifique, par exemple SciHub qui rassemble des millions de documents en infraction avec le droit d’auteur.
Le développement de l’intelligence artificielle fait évoluer le métier des professionnels de l’information au quotidien et nous nous en faisons régulièrement l’écho dans BASES.
S’il y a bien évidemment beaucoup de tâches qu’on ne peut pas et que l’on ne doit pas déléguer à l’IA, elle apporte sur certains aspects une réelle valeur ajoutée aux pratiques et aux outils professionnels.
Nous avons choisi ici de nous intéresser aux outils de résumé automatique, qui génèrent automatiquement des résumés à partir d’un ou plusieurs documents tels qu’un article scientifique, article de presse, rapport, thèse, page Web, etc.
Poursuivant notre série d’articles sur les fonctionnalités originales et innovantes des différents serveurs d’information, nous avons choisi de nous attarder ce mois-ci sur la solution Europresse.com, proposée par la société CEDROM-SNI.
Créée en 1989, la société québécoise est présente en France depuis 1999. L’offre disponible sur son agrégateur Europresse vient utilement compléter ce qui est offert chez ses concurrents. Tous les continents sont couverts, avec notamment de nombreuses sources canadiennes, aussi bien francophones qu’anglophones, ce qui s’explique aisément puisque la maison-mère est localisée à Montréal. Europresse propose par ailleurs une grande diversité dans les types de contenus.
Depuis plusieurs années, le text mining s’est fortement répandu à la fois grâce au développement de logiciels adaptés et à la mise à disposition de contenus disponibles sous forme électronique.
En observant ce développement, on peut se demander comment sont gérés du point de vue du copyright les éléments précisément protégés par un copyright, le problème étant encore plus complexe du fait que toutes les données sur lesquelles on fait du text mining ne font pas nécessairement l’objet d’un copyright.