Google a récemment annoncé qu’il avait retiré le cache des pages Web dans les résultats du moteur. C’était pourtant une option bien utile quand une page ou un site n’était pas disponible.
Le cache est cependant toujours disponible si on utilise l’opérateur dédié dans la requête : cache:bases-publications.com
. Mais cette fonctionnalité a aussi vocation à disparaître dans les prochains mois.
Danny Sullivan, un des porte-parole de Google a expliqué que le cache « était destiné à aider les gens à accéder aux pages quand, à l’époque, on ne pouvait souvent pas compter sur le chargement d’une page. De nos jours, les choses se sont grandement améliorées. Il a donc été décidé de le retirer. »
Heureusement, il existe plusieurs options quand on souhaite visualiser l’historique d’un site ou quand il n’est tout simplement pas disponible. La plus connue et que l’on ne présente plus est la Wayback Machine proposée par Internet Archive (https://archive.org/), même si elle est loin d’être parfaite.
Une autre solution intéressante peut consister à utiliser le site CachedView (https://cachedview.nl/).
Il y eu un temps où tous les sites ou presque proposaient une newsletter. Et puis l’intérêt pour ce format a grandement diminué au profit d’une communication avec les internautes via les réseaux sociaux. Les newsletter restantes se résumaient alors bien souvent qu’à un simple mailing commercial sans grande valeur ajoutée, un produit avant tout destiné à collecter des adresses emails pour remplir son fichier commercial ou à une simple copie des contenus publiés sur le site associé.
Et pourtant, il semblerait bien qu’on ait enterré les newsletters un peu trop vite...
Depuis quelque temps, les newsletters redeviennent à la mode en témoigne notamment le succès de la plateforme spécialisée Substack qui se développe à grand pas et propose régulièrement de nouveaux services.
Les 20 ans de Wikipédia sont pour nous l'occasion de revenir sur sa place dans les processus de veille et de recherche d’information.
L'encyclopédie collaborative a évolué au cours des dix dernières années et surtout au niveau de son image et de sa place dans le paysage des sources d’information.
Notons au passage que bon nombre d'entreprises rêveraient de la réussite du modèle Wikipédia en termes d'intelligence collective et de plate-forme de partage de connaissances internes.
Après plusieurs mois pendant lesquels le coronavirus occupait la majorité des actualités de la veille et de la recherche d’information avec de nouvelles ressources et de nouveaux outils dédiés, on sent bien que la vie professionnelle reprend progressivement son cours avec le lancement de nouveaux outils et de nouvelles fonctionnalités et l’aboutissement de projets en cours.
Il y a quelques mois, nous avions eu l’occasion de parler d’un nouvel outil 2D Search qui permet de créer ses requêtes sur des moteurs et bases de données en 2 dimensions. L’idée étant que les requêtes peuvent être parfois longues et complexes et sont propices aux erreurs. En créant sa requête sous forme de blocs combinables, la requête est plus lisible et plus facilement modifiable. À l’époque, l’outil intégrait déjà Google, Google Scholar (même si nous ne recommandions pas son utilisation sur la suite Google), Bing, Pubmed et quelques autres.
Lire aussi :
Des outils pour optimiser ses stratégies de recherche
En cette période particulière, l’actualité de la veille et de la recherche d’information est très différente du paysage habituel. Une majorité des actualités et informations traitent des ressources d’information autour du coronavirus, la gratuité temporaire de certains outils et sources d’information ainsi que du thème du télétravail.
Newsdesk, le produit LexisNexis à mi‑chemin entre un agrégateur de presse et une plateforme de veille, change de nom et devient Nexis Newsdesk.
Ce changement est effectif depuis novembre.
Lire aussi :
BASES N°244 de Décembre 2007 à commander en direct en nous écrivant à : Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser.
Il est plus que jamais indispensable de se former en continu à ses problématiques métiers et de réaliser sa propre veille sur la veille pour rester un expert. Car le monde de l’information change de plus en plus vite.
Mais suivre l’actualité des acteurs et outils de la veille et de la recherche d’information est de plus en plus chronophage et souvent difficile à intégrer à ses tâches du quotidien...
Pour cette raison, nous avons décidé de consacrer désormais deux pages de chaque numéro de NETSOURCES à cette veille métier avec :
Lire aussi :
L’évolution de la frontière gratuit/payant impacte la veille stratégique et technologique
Quand les outils de veille intègrent les contenus payants à leurs offres
Retour sur le Challenge de la veille 2019
Google et Bing se transforment toujours un peu plus en moteurs de réponses.
En ce début d’année, l’actualité est très riche du côté des moteurs de recherche.
Google a récemment lancé un test où, pour certaines questions simples (comme l’heure qu’il est, convertir des unités ou des monnaies ou encore effectuer des calculs), il affichait directement la réponse sans proposer de liste de résultats naturels (voir figure 1.).
Et si l’on souhaitait accéder aux résultats naturels, il fallait alors cliquer sur un bouton « afficher tous les résultats ».
Il est rare que la mise en ligne d’un nouveau logiciel ne génère pas quelques soucis. STNext n’y a pas échappé. En effet, on rencontre un problème lorsque l’on utilise une parenthèse avec un clavier AZERTY car cette parenthèse efface le caractère précédent.
Par exemple, si l’on tape S (un terme) le S est effacé et la commande ne peut être exécutée. On ne peut donc faire que des stratégies de recherches qui ne comportent pas de parenthèse ce qui est évidemment très restrictif.
Pour pallier cet inconvénient, il y a plusieurs solutions : utiliser un clavier QWERTY, ou bien utiliser Command Window accessible à partir de la flèche en bas à gauche de l’écran si l’on veut rester sur STNext.
Sinon, on peut bien sûr utiliser STN on the Web ou STN Express.
Autre «détail» à prendre en compte si l’on utilise STNext : il faut penser à récupérer le transcript avant de se déconnecter, contrairement à ce qui se passe avec STN on the Web où l'on accède au transcript après la déconnexion.
Pour ceux qui n’ont pas de contrat forfaitaire, cela augmente inutilement les coûts.
Premier événement en date : l’annonce du rachat de CEDROM-SNI, propriétaire de l’agrégateur de presse Europresse par Cision le 20 décembre dernier. On en sait pour l’instant assez peu sur ce qu’il va advenir d’Europresse et de tous ses clients sur le sol français si ce n’est que cela va apporter « une excellente complémentarité stratégique » et « permettra de renforcer l’offre internationale » de Cision. Nous enquêterons donc sur les conséquences à court et long-terme de ce rachat et la nouvelle place de Cision dans le paysage de la veille, qui, rappelons-le, avait déjà racheté l’Argus de la presse cet été.
Autre rachat : celui de Xilopix, l’éditeur du moteur français Xaphir (pour lequel nos tests avaient été peu concluants) par le moteur français également Qwant. Les deux équipes travailleront ensemble pour développer des solutions de recherche adaptées au respect de la vie privée.
Enfin, l’outil de curation de contenus Storify, que certains de nos lecteurs connaissent et utilisent vient d’être acquis par la start-up américaine Livefyre spécialisée dans la curation de contenus et l’engagement d’audiences, elle-même acquise par Adobe en mai 2016. Storify fermera ses portes en mai 2018 et deviendra une fonctionnalité de LiveFyre qui est par contre un outil payant.
La lutte contre les fake news était un des thèmes central de l’année 2017. Et de nouvelles initiatives voient régulièrement le jour.
Suite du feuilleton entre les éditeurs scientifiques et le réseau social scientifique ResearchGate.
Rappelons qu’au dernier épisode, les éditeurs avaient proposé un accord à ResearchGate pour limiter le nombre d’articles enfreignant les règles du copyright. Le réseau social n’a semble t-il jamais répondu à leurs sollicitations.
Cinq acteurs (American Chemical Society, Brill, Elsevier, Wiley et Wolters Kluwer) ont donc décidé de se regrouper pour créer la « Coalition for responsible sharing » et ont alors prévu de prendre des mesures légales envers ResearchGate.
Face à cette levée de boucliers, ResearchGate a décidé de réagir à sa façon en supprimant un certain nombre de publications présentes dans son système. Certaines publications ont ainsi été rendues privé avec un accès restreints à certaines personnes et d’autres ont tout simplement été supprimées sans que l’auteur n’ait été prévenu au préalable.
Nous apprenions il y a quelques jours que Pubmed testait une nouvelle interface. Celle-ci est accessible sur Pubmed Labs (https://www.ncbi.nlm.nih.gov/labs/pubmed) et n’a pas vocation à supplanter l’interface actuelle pour le moment. Le but étant de tester de nouvelles fonctionnalités.
Parmi les nouveautés, on notera :
Dans le secteur de la recherche, il est en ce moment beaucoup question des « revues prédatrices », en l’occurrence des revues pseudo-scientifiques dont le but principal est l’enrichissement plutôt que l’avancement de la recherche.
Les chercheurs sont généralement sollicités par email par ces revues et invités à soumettre des articles. Elles fonctionnent sur le modèle du libre accès où les auteurs payent pour que leurs articles soient publiés. Mais dans le cas des revues prédatrices, n’importe quel article est accepté et publié, les comités éditoriaux étant souvent composés de membres fictifs ou de chercheurs dont les noms ont été inscrits sans leur accord.
Jeffrey Beall, un bibliothécaire de l’Université du Colorado à Denver avait mis en ligne une liste des revues prédatrices pour aider les chercheurs à ne pas se faire piéger, liste qui a malheureusement été retirée en janvier dernier suite aux nombreuses pressions qu’il a reçues.
Claritive Analytics qui a racheté les activités Propriété Intellectuelle de Thomson vient d’acquérir Publons et sa plateforme à destination des chercheurs pour partager, discuter et mettre en valeur le travail des reviewers. Le CEO de Claritive a ainsi annoncé que l’entreprise souhaitait investir dans des solutions d’analytics et d’optimisation des workflows pour aider ses clients à accélérer leur processus d’innovation.
LexisNexis a récemment lancé une base de données appelée LexisNexis Media Contacts Solution qui recense plus de 800 000 contacts médias dans plus de 200 pays. Cette base permet ainsi d’identifier des journalistes et influenceurs.
Du côté de l’information business et financière, les opérations de rachat et partenariats se font nombreuses.
Nous apprenions récemment le rachat de Bureau Van Dijk (Orbis, Diane, Zehyr, etc.) par l’agence de notation Moody’s pour 3.3 milliards de dollars. Pour Moody’s, l’opération a pour but d’étendre ses activités « en services d’analyse de risques et d’évaluation analytique ».
Claritive Analytics qui a récemment racheté les activités Propriété Intellectuelle de Thomson a annoncé son intention d’investir dans Web of Science en élargissant sa couverture de l’ « Emerging Sources Citation Index ». L’index passera ainsi de 5 000 revues émergentes à 7 500 et ce sont dix années d’archives qui seront également proposées dans le cours de l’année.
Les « fake news » et la désinformation ne cessent de faire la Une des médias en cette période d’élection. Facebook et Google se sont eux-mêmes lancés dans la course au fact checking en proposant un meilleur contrôle du contenu partagé en ligne et en lançant ou en s’associant à des outils et projets de fact checking, en l’occurrence de vérification des informations.
En France, plusieurs initiatives coexistent depuis plusieurs années mais le dernier en date vient d’être lancé par le quotidien Libération. Checknews (http://checknews.fr/), c’est son nom, se définit comme un moteur de recherche humain pour lutter contre la désinformation. Les internautes posent leurs questions sur le moteur : si une réponse à cette question existe déjà, il est renvoyé vers cette réponse. Dans le cas contraire, sa question va être traitée par un journaliste qui va se charger de vérifier les faits et rédiger une réponse.
EBSCO a récemment étendu son partenariat avec Claritive Analytics (qui a repris les activités scientifiques et propriété intellectuelles de Thomson Reuters) afin de proposer BIOSIS Previews et Zoological Record via EBSCOhost. Rappelons que BIOSIS Previews est l’une des plus importantes bases de données bibliographiques en sciences biologiques et que Zoological Record est l’une des plus anciennes bases bibliographiques dédiée à la biologie animale.
Le MeSH 2017 est maintenant disponible. Chaque année la National Library of Medecine (NLM) fait évoluer son célèbre thesaurus MeSH (Medical Subject Headings) avec ajout, suppression ou modification des termes. La banque de données accessible sur plusieurs serveurs va être entièrement rechargée avec cette version (sur Dialog-Proquest notamment).
La base de donnée LiSSa (www.lissa.fr) qui propose plus de 860 000 articles médicaux en français propose une nouvelle version. Parmi les nouveautés, le tri par pertinence, une compatibilité avec tout type d’écran et un nouveau formulaire de recherche avancée.
Quertle, le développeur de la première plateforme de découverte et d’analyse visuelle de données biomédicales basée sur un système d’intelligence artificielle collabore désormais avec Elsevier pour intégrer Science Direct au sein de son outil.
Clarivate Analytics lance une nouvelle version de son outil de gestion bibliographique EndNote. EndNote X8 offre désormais la possibilité de partager une bibliothèque de références, des références, des PDFs et des annotations avec 100 personnes maximum, la possibilité de travailler simultanément sur une bibliothèque partagée en temps réel, du stockage illimité sans coût additionnel et l’ajout d’un flux d’activité pour voir les nouveaux membres ou les changements apportés aux bibliothèques partagées.
L’organisation des Nations-Unies pour l’Alimentation et l’Agriculture (FAO) vient de lancer une nouvelle version de sa base de données statistique FAOSTAT. Au programme des nouveautés, une interface plus moderne et adaptée à la lecture sur supports mobiles, de nouvelles fonctionnalités de recherche et de filtrage et la possibilité de télécharger des ensembles de données personnalisées, des cartes et graphiques. Le nouveau site propose également une nouvelle fonction avec un ensemble d’indicateurs-clés prêts à l’emploi.
Academia, le réseau social académique qui compte plus de 40 millions d’utilisateurs vient d’annoncer le lancement d’une offre premium. Cette offre est accessible en beta privée uniquement pour le moment et semble offrir par rapport à l’inscription classique plus de données analytiques.
Jusqu’à présent, le réseau social était entièrement gratuit et même si les premières informations ne semblent pas remettre en cause l’accès gratuit à tous les documents hébergés sur la plateforme, cette annonce a soulevé de nombreuses critiques dans le monde académique qui s’inquiète de voir disparaître certaines fonctionnalités et surtout l’accès gratuit à l’intégralité des documents. Aucune information tarifaire n’est pour le moment publique mais certains beta testeurs ont indiqué sur les réseaux sociaux que les tarifs proposés étaient bien trop élevés. Affaire à suivre...
Le 24 août dernier, Elsevier annonçait le lancement de Datasearch, un moteur de recherche de données scientifiques multisectoriel en libre accès. L’outil fonctionne comme un moteur classique et interroge des sources scientifiques et répertoires institutionnels. Elsevier explique avoir voulu aider les chercheurs à gagner du temps dans leurs recherches car les moteurs de recherche généralistes ne sont pas forcément les plus adaptés pour identifier de l’information très spécialisée et ne se limitent pas à des sources d’information qualifiées et reconnues.
Ainsi, Datasearch indexe pour le moment les tableaux, figures et données supplémentaires associées aux articles publiés sur ScienceDirect, arXiv et PubMed Central ainsi que le contenu de NeuroElectro, Dryad, PetDB, ICPSR, Harvard Dataverse et ThemoML.
Pour le moment Datasearch n’est pas un produit commercial mais Elsevier indique que le business model n’est pas encore finalisé. Impossible donc de savoir comment va évoluer le produit dans les mois et années à venir et s’il va rester en libre accès.
Use less boolean on Google for better productivity, Sourcecon, 17 Mai 2016, http://bit.ly/29MUXk2
On voit de plus en plus de personnes remettre en cause le principe de recherche sur Google qui utilise la syntaxe traditionnelle à base d’opérateurs booléens.
L’auteur de cet article s’interroge sur l’utilisation de cette syntaxe et se demande si finalement une recherche en langage naturel ne fournirait pas des résultats plus pertinents.
Depuis quelques années, Google a considérablement amélioré ses performances en matière de recherche sémantique. De fait, les opérateurs booléens ont une utilité moindre et pourraient même restreindre la recherche et faire passer l’internaute à côté des résultats les plus pertinents. L’auteur de l’article présente plusieurs tests pour illustrer ses propos.
De ces différents tests, il tire des enseignements intéressants :
Google et ses concurrents ont du souci à se faire. Le parlement français a récemment voté la loi « création » qui oblige entre autres les moteurs à payer une redevance pour indexer et afficher des photos dans leurs moteurs d’images. La redevance devra être versée auprès d’une société de gestion collective agréée, telle que la SAIF, l’ADADGP, ou une autre structure ad hoc.
A l’exception des professionnels de l’image et de la photographie qui enregistreront leurs œuvres auprès de ces organismes de gestion, il est hautement improbable que le citoyen lambda qui publie des images sur le Web touche le moindre centime en droit d’auteur de la part de ces organismes. Certains dénoncent également le déséquilibre entre Google et des petits moteurs de recherche indépendants qui ne disposent pas du budget de Google et qui préfèreront désindexer certaines images car ils ne pourront pas supporter ces nouveaux coûts.
De son côté, le moteur de recherche DuckDuckGo, qui se positionne sur le créneau des moteurs qui respectent la vie privée, s’améliore et propose de nouvelles fonctionnalités de recherche. Les dernières en date : la possibilité de filtrer les résultats par date (past day, past month, etc.) et l’ajout de sitelinks pour certains sites. Rappelons que les sitelinks sont des liens affichés au-dessous de certains sites dans les résultats et sont destinés à faciliter la consultation du site par les internautes. La structure des liens du site est analysée afin de définir des raccourcis permettant aux internautes de gagner du temps et de trouver rapidement l’information qu’ils recherchent.
Factiva a récemment lancé une application Iphone permettant de suivre l’actualité en tout lieu et à tout moment. Cette application donne accès aux alertes, newsletters et actualités issues des titres présents dans Factiva. Il est possible de sauvegarder les articles pour les lire plus tard sans avoir de connexion internet.
La base de donnée Inspec (littérature scientifique et technique) est désormais accessible sur Proquest (nous rappelons qu’elle était déjà accessible depuis bien longtemps sur la plateforme Proquest Dialog et sur STN).
Proquest a également lancé récemment neuf bases de données régionales avec plus de
3 000 titres de revues académiques (business, science, sciences humaines et sociales, médecine, etc.). Les neuf bases sont les suivantes : Australie & Nouvelle Zélande, Europe continentale, Europe de l’Est & Europe Centrale, Asie de l’Est et du Sud, Inde, Amérique latine et péninsule ibérique, Afrique & Moyen-Orient, Turquie, Royaume-Uni & Irlande.
Du côté du géant américain Google, l’actualité ne manque pas aussi bien au niveau du moteur de recherche que de ses autres services.
L’entreprise travaille actuellement sur un algorithme pouvant deviner où une photo a été prise même quand l’utilisateur a désactivé la géolocalisation (et notamment supprimé les données exif qui fournissent ces informations de localisation). Pour le moment, le système arrive à reconnaître le continent dans 48% des cas, le pays dans 28 % des cas, la ville dans 10% et la rue dans 3.6% des cas. Il faudra encore un peu de travail avant que le concept présente un réel intérêt.
Sur le moteur Google images, les internautes peuvent désormais bookmarker les images qui les intéressent (seulement aux Etats-Unis pour le moment).
Enfin, YouTube a ajouté une nouvelle fonctionnalité permettant de flouter des zones sur une vidéo. Cette fonctionnalité n’est bien sûre accessible qu’aux personnes propriétaires de la vidéo souhaitant la charger sur YouTube.
On le sait, Google indexe les documents au format PDF, mais ce que l’on sait moins, c’est qu’il les met peu souvent à jour (c’est-à-dire qu’il ne retourne pas souvent pour crawler un même document) car il considère que les documents PDF sont des documents « stables » qui sont rarement modifiés ou mis à jour. Ce n’est donc pas en passant par Google que l’on pourra surveiller efficacement les changements sur un document PDF.
Highwire Press, l’agrégateur qui indexe des millions d’articles de publications scientifiques et académiques a récemment signé un partenariat avec TrendMD, un moteur de recherche de recommandation qui a pour vocation à être utilisé au niveau des résultats d’Highwire.
Depuis le début de l’année 2016, Proquest et l’ISSN (International Standard Serial Number) collaborent afin d’améliorer la diffusion des revues numériques. L’un de leurs objectifs est d’identifier toutes les revues actives ne disposant pas de numéro ISSN et de leur en attribuer un.
Stratégie, politique et reformulation de l’open access, Revue française des sciences de l’information et de la communication, mis en ligne le 24 mars 2016 http://rfsic.revues.org/1836
Ghislaine Chartron, directrice de l’INTD a récemment publié un article dans la revue française des sciences de l’information entièrement dédié à l’Open Access. Cet article aborde le développement de l’open access et les reformulations progressives du mouvement, la diversification et développement des modèles open access, les politiques nationales d’open access, le contexte français, l’actualité de la loi numérique et le nouveau tournant marqué par Berlin 12.
Twitter creates ‘new academic hierarchies’, suggests study, Times Higher Education, 23 mars 2016 bit.ly/1q1RX7c
Les altmetrics (métriques alternatives qui mesurent l’impact des publications scientifiques dans les médias sociaux) sont à la mode. Mais cet article émet des doutes quant à l’utilisation de Twitter pour évaluer l’impact d’un article scientifique. Il montre, entre autres, que les comptes Twitter académiques (chercheur, doctorants, etc.) qui suivent une centaine de comptes ont en moyenne 91 followers alors que ceux qui en suivent environ 1000 ont en moyenne 870 followers. La notoriété d’un compte ne serait donc pas forcément reliée à un certain mérite académique.
En tentant de résoudre cette problématique, Camille Alloing revient sur l’aspect interactif d’Infomous (outil permettant de générer des cartes sémantiques) et sur la manière dont il structure en « clusters sémantiques » les données des flux. Il met d’ailleurs à disposition une cartographie sémantique et interactive nourrie de près de 96 comptes d’enseignants, chercheurs, doctorants et docteurs en science de l’information et de la communication, personnalisable à cette adresse : http://infomous.com/node/59371. Il évoque toutefois les limites de l’outil, en particulier un algorithme sémantique calibré seulement pour la langue anglaise ou encore l’ignorance de l’utilisateur sur la fréquence de mise à jour des flux. Il présente également sa méthodologie de recherche, sans omettre ses limites, dont les principales étapes sont : la sélection des comptes, l’utilisation de TwitRSS.me pour générer un flux RSS et la fusion des flux en un seul grâce à l’outil RSSfusion.org qui est utilisé par la suite dans Infomous.
La guerre entre Google et la presse ne semble pas être terminée, du moins pas en Allemagne. Un groupe d’éditeurs allemands a déposé une plainte en janvier dernier contre le géant américain. Il lui reproche de ne pas respecter la loi sur le copyright des éditeurs de presse « Leistungsschutzrecht für Presseverleger » votée en 2013 en Allemagne. Cette loi prévoit de faire payer les moteurs de recherche et agrégateurs d’actualités dès lors qu’ils affichent des articles de presse (même une partie seulement) dans leurs résultats.
Jusqu’à présent, Google proposait plusieurs API autour de la recherche permettant ainsi aux développeurs d’utiliser et d’intégrer certains services de Google à d’autres sites et applications. Mais à partir du 15 février prochain, Google a annoncé la fermeture des API suivantes : recherche brevets, Google News, recherche dans les blogs, recherche vidéos, recherche images
Le « 2016 Edelman Trust Barometer », un sondage mené par la société Edelman a récemment montré que 60% des personnes sondées (33 000 personnes dans 28 pays différents) faisaient plus confiance aux informations publiées dans Google News qu’aux mêmes actualités publiées sur les sites des journaux.
Le département Intellectual Property & Science business de Thomson Reuters a récemment annoncé sa collaboration avec la bibliothèque numérique scientifique russe eLIBRARY.RU. De fait, le Russian Science Citation Index (RSCI qui inclut plus de 600 journaux scientifiques russes) sera désormais inclus dans Web of Science.
Ce même département vient tout juste de publier un rapport intitulé World’s Most Influential Scientific Minds identifiant les chercheurs ayant eu le plus d’impact dans leur domaine. Il est accessible à l’adresse suivante : bit.ly/1JTBE4Z. Les domaines couverts sont les suivants : Agricultural Sciences, Biology & Biochemistry, Chemistry, Clinical Medecine, Computer Science, Economics & Business, Engineering, Environment & Ecology, Geosciences, Immunology, Materials Science, Mathematics, Microbiology, Molecular Biology & Genetics, Neuroscience & Behavior, Pharmacology & Toxicology, Physics, Plant & Animal Science, Psychatry/Psychology, Social Sciences (General), Space Science.
En septembre dernier, Alacra, qui propose de multiples bases de données et également de nombreuses données financières et business, a été racheté par la société Opus Global, un des principaux acteurs de solutions SaaS de mise en conformité. Cela fera l’objet d’un article plus détaillé dans un prochain numéro de Netsources.
Dun & Bradstreet a récemment noué un partenariat avec Docusign pour développer une app dédiée à la due diligence disponible sur la plateforme AppExchange de Salesforce.
EBSCO et Biblibre collaborent sur un logiciel Open Source à destination des bibliothèques françaises et européennes. Le partenariat permettra de renforcer l’interopérabilité entre EBSCO Discovery Service (EDS) et le logiciel Koha déployé par la société Biblibre en France depuis 2002.
Le contenu de la base de donnée BASE (gérée par la Bielefeld University – Voir Bases n° 312 – Février 2014), qui indexe des millions de documents en open access dans le domaine académique peut maintenant être recherché via EBSCO Discovery Service.