Open AI vient d’annoncer le lancement de son outil de recherche en ligne baptisé ChatGPT Search.
Nul doute que, si l’outil est vraiment fiable, - et il n’y a pas de raison qu’il ne le soit pas – cela ne sera pas sans conséquence sur l’énorme part de marché que Google détient dans la recherche sur le Web.
La Cour de Cassation au sein de laquelle est développée Judilibre, annonce que les décisions des tribunaux de commerce seront chargées avant la fin de cette année.
Rappelons que Judilibre a vocation à proposer en open access l’ensemble des décisions de justice rendues en France.
La prestigieuse institution vient de lancer l’application « Library Mobile » pour smartphone qui donne accès à une série d’informations et de services tels que l’accès à Omnia, le catalogue des douze bibliothèques et du service des archives. Il permet aussi, en particulier, de suivre les cours du Collège de France sur ses chaînes YouTube et de lire les derniers billets du blog Colligere.
PLOS est un éditeur de publications en open access essentiellement dans le domaine biomédical.
Les articles qu’il publie sont classés en différents types tels que « research article », « short report », « consensus view » ou « perspective », une ventilation dont le niveau de détail est peu fréquent.
Cet éditeur vient d’innover avec la création d’un nouveau type d’article baptisé « essay » proposé dans ses publications PLOS Climate, PLOS Global Public Health, PLOS Mental Health et PLOS Water.
Ces « essays » sont des articles de prise de position, en particulier sur des sujets politiques d’intérêt régional ou sectoriel.
Ces articles de 3 à 4 000 mots sont supposés pouvoir être lus par des non-spécialistes.
À titre d’exemple, un des essais récemment chargés traite des lacunes politiques dans le traitement des maladies pulmonaires post-tuberculose.
À l’heure où OpenAI lance SearchGPT, son propre moteur de recherche intégré directement dans son chatbot, une question brûle sur toutes les lèvres : SearchGPT va-t-il détrôner Google ?
Au-delà de la « simple » question du modèle économique de Google et toutes réserves faites par ailleurs sur la robustesse des modèles d’IA face à leurs ambitions de déploiement planétaire, une autre question tout aussi cruciale nous semble se profiler : comment notre « expérience d’utilisateurs professionnels » est-elle transformée par les nombreux acteurs émergents de la recherche et de la veille ?
Depuis plusieurs mois, ces nouveaux acteurs consolident leur place et élargissent considérablement le champ d’utilisation opérationnelle des outils de veille et de recherche tels que nous les pratiquions jusqu’ici.
Dans ce nouveau numéro de Netsources, nous explorons ces transformations avec l’article de Véronique Mesguich qui analyse la concurrence entre You.com, «moteur de productivité polyvalent», et Perplexity, ainsi que l’article d’Ulysse Rajim sur NotebookLM, dont il analyse le rôle d' «un assistant pour la veille augmentée». Notons tout de même au passage que NotebookLM est produit par... Google.
Nous découvrirons sous leur plume comment ces moteurs ne se contentent plus d’afficher des résultats bruts. Ils permettent aux professionnels de l’information de réaliser des synthèses claires et structurées, enrichies par le traitement de très grandes quantités d’informations de multiples sources. L'information est désormais beaucoup plus facilement manipulable, permettant une structuration et un enrichissement en temps réel grâce à une grande puissance de traitement d'énormes volumes de données. Cela offre une nouvelle façon de gérer la connaissance, ce qui est essentiel pour la gestion de masses d'informations et de connaissances. L'utilisateur peut ainsi naviguer entre différents modes-recherche, génération de contenu et même création d'images-en fonction de ses besoins.
Nous serons également très attentifs à la méthode innovante et personnalisée que nous propose Ulysse Rajim avec un véritable guide de l’automatisation de la veille grâce à l’IA.
Le lecteur pourra mesurer en filigrane comment ils modifient en profondeur la collecte, le filtrage et l’analyse de l’information ainsi que la gestion des connaissances au sein des entreprises, en les rendant accessibles et exploitables par différents services et équipes à une échelle beaucoup plus large.
Automatiser sa collecte d'informations, synthétiser des documents très volumineux, personnaliser ses agents de recherche, toutes ces possibilités sont désormais à votre portée. L’idée est d’exploiter l’IA non pas comme une curiosité technologique, mais comme un véritable levier de productivité et de performance.
« Moteur de productivité » : c’est ainsi que se définit la plateforme You.com. Ce concept de productivité, souvent associé à des outils de travail collaboratif comme Notion ou Trello, serait-il annonciateur d’une nouvelle dimension apportée aux outils et méthodes de recherche professionnelle d’information ?
You n’est pourtant pas totalement un nouveau venu dans le monde des outils de recherche et a déjà été chroniqué dans les colonnes de Netsources. La plateforme a été lancée en effet dès 2020 par Richard Socher, ancien Chief Scientist chez Salesforce et spécialiste du traitement du langage naturel, et Bryan McCann, chercheur en IA. À l’origine, You.com se présentait comme un moteur agrégateur de contenus issus de pages web, ou de sources spécialisées (Reddit, LinkedIn…), la recherche web s’appuyant notamment sur le moteur Bing.
Depuis 2023, la plateforme a pris le virage des technologies d’IA générative et propose non seulement des services de recherche, mais également des applications d’aide à la rédaction, à la création d’images, ou encore au codage. You.com se présente ainsi désormais comme un assistant IA personnalisé. Commençons par un tour d’horizon de ses principales fonctionnalités.
La veille, on le sait, est une activité en première ligne face à la surcharge informationnelle.
Ce défi, auquel le veilleur est confronté quotidiennement, a été pris en compte par les plateformes de veille depuis plusieurs années, avec des résultats variables. Récemment, cependant, ces plateformes ont franchi une nouvelle étape en intégrant l’intelligence artificielle (cf. Netsources 171).
Quant à la majorité des veilleurs confrontés à la gestion quotidienne de cette infobésité, l’utilisation de l’IA représente également un atout considérable dans leur gestion quotidienne de l’information.
L’intelligence artificielle, et notamment les Large Language Models (LLMs), offrent des solutions pour relever ce défi en automatisant les tâches les plus chronophages du processus de veille : extraction des contenus, première phase d’analyse, catégorisation et synthèse. Nous proposons ici de vous guider avec une approche pragmatique pour intégrer ces nouvelles capacités dans vos workflows, en s’appuyant sur des outils d’automatisation et d’IA générative accessibles à tous.
À l’ère de l’IA générative, les outils de veille évoluent pour offrir de nouvelles capacités d’analyse documentaire.
Parmi les nouveaux venus dans l’écosystème des outils d’IA pour la veille, NotebookLM se positionne comme un assistant de recherche et d’écriture basé sur l’IA. Ce service, développé par Google, pourrait aider les professionnels de l’information à interagir plus facilement avec de multiples sources de données disparates.
Avec la capacité d’analyser des quantités importantes de texte, jusqu’à plusieurs milliers de pages d’un coup, et de traiter différents types de contenus (texte, audio, images, vidéos), NotebookLM répond bien aux besoins du professionnel de l’information moderne. Explorons comment cet outil, intégrant l’IA de manière native, pourrait influencer les pratiques de veille en permettant une exploration plus riche et contextualisée des données.
La société norvégienne Ludenso créée à Oslo a toujours travaillé sur la réalité augmentée. Son projet : révolutionner l’éducation avec cette technologie.
Les chercheurs de la société ont un jour, en faisant une démonstration dans une classe, eu la révélation du potentiel de la réalité augmentée dans l’éducation.
En effet, après avoir transformé les images en 2D des manuels scolaires avec de la réalité augmentée, ils ont pu mesurer que 82 % des étudiants estimaient que cela améliorait/facilitait leur apprentissage.
Ces transformations d’images sont particulièrement bien adaptées pour des images d’organes (le muscle cardiaque ou des structures moléculaires par exemple) ; il est en effet possible de zoomer, de changer l’angle de vision permettant de beaucoup mieux s’approprier la description de l’objet.
Au-delà des manuels scolaires, des accords ont été passés avec des éditeurs tels que Cambridge University Press, Sage et plus récemment Karger Publisher, un éditeur suisse de revues et livres scientifiques et médicaux.
À cette occasion, dans la présentation de cette nouvelle collaboration on apprend que l’auteur se voit facturer 299 $ l’option de passer en réalité augmentée jusqu’à trois figures.
Cette innovation est tout à fait intéressante, même si on ne peut pas dire qu’elle ait atteint aujourd’hui une grande notoriété.
Des scientifiques veulent créer une banque de données des « évidences » à destination des politiques.
En effet, si le nombre de publications scientifiques ne cesse de croître, elles ne sont, en général, pas destinées à être utiles à la prise de décisions, car ce ne sont pas des synthèses opérationnelles. Deux institutions britanniques, l’ESRC (Economic and social Research Council) et la fondation caritative WELLCOME vont investir respectivement 9,2 et 45 millions de £ sur cinq ans pour produire une banque de données et des outils qui aideront à synthétiser des recherches.
NATURE, 21 septembre 2024
Lucina Uddin, une professeure américaine spécialisée en neuroscience, porte plainte contre six grands éditeurs scientifiques, espérant la transformer en « class action ».
Elle leur reproche de violer les lois antitrust en empêchant un auteur (grâce à une entente, affirme-t-elle) de proposer son article à plusieurs publications en même temps, ce qui ne les incite pas à publier rapidement ces articles. D’autre part, elle considère que la pratique consistant à ne pas payer les évaluations par les pairs (peer reviews) peut s’analyser comme une fixation illégale de prix.
Dans un article paru dans PLOS ONE, Alberto BACCINI et Eugenio PETROVICH ont analysé les pourcentages d’auto-citations des auteurs d’articles scientifiques dans 50 pays sur la période 1996-2019.
Si la tendance générale est à la baisse des auto-citations, douze pays font exception : Italie, Colombie, Égypte, Indonésie, Iran, Malaisie, Pakistan, Roumanie, Fédération de Russie ; Arabie Saoudite, Thaïlande et Ukraine.
Ces exceptions semblent être liées, d’après les auteurs, au fait que dans ces pays, le nombre de citations a une influence très directe tant sur la carrière que le salaire des chercheurs.
Après neuf mois de tests auprès de la communauté des utilisateurs de Web of Science, Clarivate vient d’annoncer le lancement de son assistant de recherche dopé à l’IA pour la recherche sur le contenu de Web of Science Core qui propose 92 millions de références dans le domaine scientifique depuis le début du 20° siècle.
Nous avons testé ce nouvel outil qui illustre l’investissement des serveurs et agrégateurs dans des possibilités de recherche nouvelles sur leur fonds grâce à l’intelligence artificielle.
L’écran d’accueil est commun avec la recherche classique sur le Web of Science. L’accès se fait par un clic sur « Search assistant » qui donne accès à la nouvelle interface. On se voit alors proposer quatre options qui correspondent à autant de problématiques.
La première baptisée « Start a new search by asking a question » permet de lancer une question spécifique en langage naturel. « C’est une méthode intuitive pour commencer une exploration, particulièrement utile pour les chercheurs qui ne sont pas familiers avec les techniques de recherche avancées. »
La seconde, « Understand a topic » a pour objectif d’offrir rapidement une vue d’ensemble structurée d’un sujet spécifique. C’est un excellent point de départ pour se familiariser rapidement avec un nouveau domaine de recherche ».
Interview de JEAN-PIERRE LARCHER, membre du collège des Emérites - Académie de l’Intelligence Economique.
Nous avons souhaité interviewer Jean-Pierre Larcher, un pionnier de l’intelligence économique et du développement territorial, dont les réflexions sur les défis contemporains et l’importance de la souveraineté économique nous apparaissent essentielles pour éclairer les enjeux actuels des collectivités.
Jean-Pierre Larcher compte plus de quarante ans d’expérience dans la gestion de projets liés à l’intelligence économique et au développement territorial, aussi bien en France qu’à l’international. Son parcours impressionnant inclut la direction de projets innovants tels que « Maîtrise de l’Information » et la contribution à l'élaboration de la Charte partenariale entre l'Etat et Régions de France sur l’Intelligence Économique Territoriale.
Depuis 2016 jusqu’à récemment, M. Larcher a co-piloté la Mission Stratégie Prospective Intelligence Économique (SPIE) de la Région Normandie, une initiative pionnière au sein d’une collectivité régionale. En formant des réseaux d’acteurs économiques régionaux et en lançant des programmes novateurs, il a contribué à faire de la Normandie un leader national en intelligence économique.