On connaissait déjà les accès professionnels à STN par STN Express ou par STN on the Web (attention pour cet accès à bien se connecter sur le site de FIZ Karlsruhe et pas sur celui de CAS). S’est ajouté en fanfare, il y a quelques années le «New STN» supposé remplacer et rendre obsolète les deux interfaces précédentes.
Le New STN, longtemps mis en avant, ne mettait toujours pas à disposition toutes les bases du catalogue et son développement apparaissait long et quelque peu problématique. Et effectivement, STN a fini par annoncer que cette interface utilisait des technologies nouvelles pour lesquelles des contraintes non prévues étaient apparues.
Cela a finalement conduit STN à arrêter le développement de cette nouvelle plateforme qui, pour le moment, reste accessible en l’état.
De leur côté, les interfaces STN on the Web et STN Express rencontrent, toujours d’après STN, des contraintes techniques rendant impossible de nouveaux développements.
C’est la raison pour laquelle une nouvelle interface, qui est une interface Web, a été développée et baptisée STNext.
Déjà abonné ? Connectez-vous...
On ne le répétera jamais assez mais se former en permanence à de nouvelles compétences est une qualité essentielle des professionnels de l’information.
Mettre à jour ses connaissances en veille, recherche d’informations ou tout autre sujet relatif à l’infodoc est bien évidemment indispensable, mais il serait dommage de s’y restreindre et de ne pas aller explorer des domaines annexes (formation, communication, etc.).
Cette idée d’article nous avait été suggérée par un visiteur d’un précédent salon i-expo qui nous avait expliqué les difficultés à identifier des formations dès lors que l’on sort du champ traditionnel de l’infodoc.
Effectivement, les organismes de formation, associations, conférences, salons gravitant autour de l’infodoc sont généralement bien connus des professionnels du domaine mais dès que l’on souhaite se former à des compétences nouvelles en dehors de cet univers, on arrive alors dans un monde complètement nouveau avec ses propres acteurs, experts et ses propres éléments de langage.
Déjà abonné ? Connectez-vous...
Dans l’imaginaire collectif des professionnels de l’information, Google Scholar, le moteur de recherche académique de Google, apparaît comme un concurrent des serveurs et bases de données payantes comme Scopus, Web of Science, Proquest, Proquest Dialog, etc.
S’il est de notoriété publique qu’une grande partie du contenu des sites et outils des éditeurs scientifiques se retrouvent sur Google Scholar, cela paraît moins évident pour le contenu des bases de données disponibles sur les grands serveurs.
Pourtant, on apprenait il y a peu que Google étendait sa collaboration avec Proquest en indexant près d’un demi million de thèses disponibles dans la base de données ProQuest Dissertations & Theses Global™ database (PQDT).
Rappelons que Google Scholar est un moteur de recherche dédié à la littérature scientifique lancé par Google à la fin de l’année 2004. Le moteur indexe le texte intégral ou les références bibliographiques de très nombreuses revues et ouvrages scientifiques et académiques, de thèses, d’actes de conférences et colloques, de preprints et même de brevets.
En terme de couverture, Google ne communique pas sur le nombre exact de documents indexés dans son moteur ni sur la liste exacte de ses partenariats avec des éditeurs ou des bases de données de professionnelles.
Ce que l’on sait, c’est qu’une grande partie du contenu des sites des éditeurs scientifiques et académiques sont indexés dans Google Scholar (Science Direct, Wiley Online, IEEE, ACM, etc.). On rappellera que l’accès au site des éditeurs scientifiques est gratuit et que les références des documents et le texte intégral des articles en Open Access sont accessibles gratuitement mais que l’accès au texte intégral des autres articles et ouvrages est quant à lui payant.
Plusieurs études ont également essayé d’estimer la taille de Google Scholar, certains l’évaluant à 100 millions de documents et d’autres à 160 millions.
Certaines voix laissent également entendre que Google Scholar propose une meilleure couverture des publications pour les Sciences dites « dures » que pour les Sciences Humaines et Sociales (SHS).
Google Scholar, contrairement aux grands serveurs et bases de données souvent utilisés pour la veille scientifique, a l’avantage d’être gratuit et accessible à tous. Cependant, ses fonctionnalités de recherche, de veille et d’analyse sont et restent bien en deçà de ce que peuvent proposer les grands serveurs ou agrégateurs.
Google Scholar n’a cessé de gagner en popularité au cours des dix dernières années. Très souvent, les chercheurs, étudiants, ingénieurs, etc. vont plus naturellement avoir le réflexe de se rendre sur Google Scholar que sur les serveurs et bases de données accessibles au sein de leurs institutions/entreprises.
Google Scholar peut donc apparaître comme un concurrent des serveurs et bases de données, et pourtant, certains de ces acteurs ont choisi de s’associer au géant américain...
Déjà abonné ? Connectez-vous...
Suite du feuilleton entre les éditeurs scientifiques et le réseau social scientifique ResearchGate.
Rappelons qu’au dernier épisode, les éditeurs avaient proposé un accord à ResearchGate pour limiter le nombre d’articles enfreignant les règles du copyright. Le réseau social n’a semble t-il jamais répondu à leurs sollicitations.
Cinq acteurs (American Chemical Society, Brill, Elsevier, Wiley et Wolters Kluwer) ont donc décidé de se regrouper pour créer la « Coalition for responsible sharing » et ont alors prévu de prendre des mesures légales envers ResearchGate.
Face à cette levée de boucliers, ResearchGate a décidé de réagir à sa façon en supprimant un certain nombre de publications présentes dans son système. Certaines publications ont ainsi été rendues privé avec un accès restreints à certaines personnes et d’autres ont tout simplement été supprimées sans que l’auteur n’ait été prévenu au préalable.
1.7 million d’articles auraient ainsi été supprimés ou rendus privés.
Chiffre insuffisant pour la « Coalition for responsible sharing » qui a alors envoyé des demandes de retrait massives.
Finalement le 6 octobre dernier l’American Chemical Society et Elsevier ont décidé de poursuivre en justice ResearchGate en Allemagne dans un but de « clarification ». Le feuilleton n’est donc pas encore terminé...
L’éditeur Wiley a récemment annoncé qu’il allait lancer en 2018 « Wiley Digital Archives » pour donner accès à des archives historiques en sciences et médecine. Le site offrira, moyennant paiement, des archives numérisées de prestigieuses institutions comme la New York Academy of Sciences ou encore le Royal Anthropological Institute of Great Britain and Ireland.
Il est prévu que de nouveaux partenaires soient ajoutés au fur et à mesure.
Parmi les contenus proposés sur la future plateforme, on comptera aussi bien des cartes, manuscrits, périodiques, documents administratifs, comptes-rendus de conférence, photographies, etc.
Ce mois-ci, Google continue à faire parler de lui sur différents sujets.
Le premier : la suppression de plusieurs fonctionnalités de recherche.
Auparavant, quand on souhaitait effectuer une recherche sur la version locale du moteur dans un pays en particulier, il suffisait de changer le domaine de l’url. Ainsi, il suffisait d’aller sur google.co.uk pour effectuer une recherche sur la version britannique, google.com pour la version américaine ou encore Google.de pour la version allemande.
Mais désormais, Google vient d’annoncer que changer le domaine de l’url ne permet plus d’afficher les résultats de recherche d’un autre pays. Quel que soit le domaine utilisé, Google affichera les résultats en fonction de la localisation de l’internaute.
Mais la bonne nouvelle, c’est qu’il existe des alternatives. De nombreux internautes et blogueurs se sont penchés sur la question et proposent des méthodologies.
La première consiste à lancer sa recherche dans le moteur puis à se rendre dans les paramètres, choisir la recherche avancée puis choisir le pays de son choix dans la rubrique « Régions ».
L’autre possibilité revient à utiliser un VPN(réseau virtuel privé) qui permet d’utiliser une adresse IP d’un autre pays.
Google a également annoncé avoir effectué des modifications sur son opérateur info:url
Cet opérateur permettait de savoir directement quelles informations étaient offertes par Google pour cette url précise : présence de la page en cache, possibilités d’afficher des pages similaires, etc. On peut toujours utiliser cet opérateur mais désormais, Google n’affiche plus aucune information... Même s’il est toujours dommage de voir disparaître des opérateurs, on se rassurera car il n’était pas le plus utile de la gamme des opérateurs de Google.
En revanche, le moteur vient d’ajouter une nouvelle fonctionnalité, à vocation plus personnelle que professionnelle. On peut désormais comparer deux produits (plutôt de grande consommation comme des téléphones par exemple) en entrant la requête produit 1 vs produit 2.
Google affiche alors un encadré avec les deux produits côte à côte et des éléments de comparaisons comme la note globale des commentaires, la fourchette de prix, le poids et différentes autres caractéristiques techniques.
A noter que la fonctionnalité n’est pas encore accessible pour tout le monde. Nous n’avons jamais réussi à la faire fonctionner depuis notre ordinateur. On suivra néanmoins son évolution avec attention surtout au cas où la fonctionnalité permettrait d’intégrer d’autres produits que les simples produits de consommation courants.
Dans la lignée de toutes les initiatives pour lutter contre les Fake news, Google va proposer différents éléments dans les résultats de recherche pour aider l’internaute à déterminer s’il s’agit d’une source fiable ou non. Lorsque l’internaute entre le nom d’un titre de presse ou site d’actualités, Google affiche parfois un « knowledge panel », c’est à dire un petit encadré qui décrit la source.
Notons que cet élément est loin d’être disponible pour tous les sites de presse et d’actualités. Dans ce « knowledge panel », les utilisateurs auront désormais accès à des informations complémentaires comme les récompenses reçues, les principaux sujets couverts, etc. Même si l’initiative n’est pas inintéressante, on est encore loin de pouvoir disposer d’informations sur un large corpus de sites Web et cette fonctionnalité ne semble pas encore disponible en France...
C’est indéniablement Twitter qui a fait la Une ce mois-ci en augmentant le nombre de caractères qui faisait son originalité depuis le début. Twitter passe donc de 140 à 280 caractères. Difficile de savoir ce que cela va réellement changer pour les utilisateurs du service d’autant plus que même avec 140 caractères, seuls 9% des tweets atteignaient la limite. Il est cependant intéressant de se souvenir qu’à une époque, Facebook lui aussi limitait le nombre de caractères des statuts à 160 et avait levé cette limitation en 2011 seulement.
D’autre part Twitter vient d’annoncer le lancement d’une version payante à 99 $/mois (en beta publique pour le moment). Rassurez-vous Twitter, ne va pas devenir complètement payant. Cette offre permet aux comptes qui la souscrivent de bénéficier d’une promotion automatique du compte et de ses tweets afin d’avoir une meilleure visibilité et de gagner de nouveaux followers. On espère simplement que cela ne va pas conduire à une explosion des tweets sponsorisés...
De son côté, Facebook a ajouté de nouvelles fonctionnalités pour les groupes. Au programme : un message d’accueil pour les nouveaux membres, un système de badge permettant de mieux repérer qui sont les administrateurs, quelques détails sur les profils des membres afin de mieux comprendre qui fait partie du groupe avant de s’y inscrire et de nouvelles options de contrôle.
LinkedIn a quant à lui annoncé une nouvelle fonctionnalité sur les pages entreprises pour les versions premium et supérieures uniquement. Les utilisateurs pourront ainsi visualiser sur les pages entreprises différentes informations comme l’évolution du nombre d’employés sur les derniers mois, la répartition des employés par fonction, l’évolution du nombre d’offres d’emploi par fonction, etc.
Si ces données peuvent avoir une forte valeur stratégique et concurrentielle, LinkedIn précise que ces statistiques sont basées sur les données présentes dans LinkedIn. Pas sûr qu’il faille prendre ces informations pour argent comptant car il existe une vie en dehors de LinkedIn...
Enfin Pinterest lance ses « sous-tableaux » pour mieux catégoriser les images partagées par ses utilisateurs.
Ce mois-ci, il faut bien penser à revoir son système de veille basé sur les flux RSS !
Google News a annoncé avoir amélioré ses flux RSS sortants. Par conséquence, l’url de chaque flux RSS va changer et l’ancienne version ne sera plus disponible à partir du 1er décembre. Mais la bonne nouvelle est pour les utilisateurs d’Inoreader car le lecteur de flux a mis à jour automatiquement tous les flux RSS issus de Google news pour tous ses utilisateurs.
D’autre part, la nouvelle version de Firefox appelée Quantum (version 57 de Firefox déjà !) qui va être lancée courant novembre va rendre obsolète un certain nombre d’extensions utilisées pour la veille comme par exemple RSS Icon in URL Bar, un plugin qui permettait de savoir si un site proposait des flux RSS même si ce n’était pas visible au premier coup d’œil. Plusieurs internautes proposent comme alternative Awesome RSS, qui, lui, est compatible avec la nouvelle version de Firefox. Pensez donc à vérifier la compatibilité de tous vos plugins et extensions !
Inoreader, le lecteur de flux qui sait tout faire ou presque vient d’augmenter la limite dans le nombre de flux Twitter, Facebook et Vkontakte qu’il est possible d’intégrer dans la version Pro. Pour chacun de ces médias sociaux, la limite est désormais de 100 flux alors qu’il était de 60 auparavant. On se rappellera qu’en 2014, la limite pour les flux Twitter était déjà de 100 mais avait été abaissée par la suite.
Nous avons eu plusieurs fois l’occasion de mentionner l’évolution de Netvibes au cours des dix dernières années, l’outil étant passé d’un simple lecteur de flux 100% gratuit à une plateforme de veille onéreuse mais avec des fonctionnalités de plus en plus avancées.
Il vient d’annoncer pour ses comptes premium Entreprise la possibilité de conserver un nombre illimité de données (articles, tweets, posts, etc.) sur une durée de 12 mois, 24 mois ou plus. Les utilisateurs pourront donc effectuer des recherches d’antériorité sur leur corpus personnalisé.
Attention cependant, il semble que les archives ne soient disponibles qu’à partir de la date où l’utilisateur a intégré la source dans Netvibes.
Nous avons découvert ce mois-ci deux petits outils à ajouter à sa panoplie de professionnel de l’information.
Tout d’abord Ambiently, une extension qui recommande des contenus relatifs aux pages visitées et d’autre part, History search, une extension Firefox qui permet de lancer des recherches sur le contenu des pages visitées et présentes dans l’historique de recherche de son navigateur. Une sorte de Google CSE pour son historique de recherche...
Figure 1. Interface d’Ambiently
Figure 2. Interface d’History Search
MÉTIER • Moteurs de recherche humains : des documentalistes au rabais ?
RETOUR D’EXPÉRIENCE
• Joseph Noumbissi, Hydro-Québec : professionnel de l’information de l’autre côté de l’Atlantique
EN BREF • L’actualité du mois d’Octobre 2017
INFORMATION SCIENTIFIQUE • HighWire Press a abandonné son moteur de recherche
SERVEURS • TableBase de retour sur Dialog
Déjà abonné ? Connectez-vous...
Si Google détient le quasi-monopole du marché de la recherche d’information Web grâce à une ambition et une intelligence hors normes, force est de le reconnaître, il ne détient heureusement pas le privilège de l’innovation. Le Goliath du Search donne même assez souvent envie à des David en herbe de relever le défi de la recherche et d’inventer des modèles de recherche alternatifs.
On constate avec plaisir que la France est présente sur ce terrain, les exemples ne manquant pas, avec pour les plus connus, Exalead, Qwant et maintenant Xaphir.
Parmi les initiatives qui ont vu et continuent de voir le jour, il existe une catégorie de moteur particulière : le « human powered search engine », que l’on pourrait traduire par moteur de recherche humain, ou « à modération humaine », comme les qualifie Phil Bradley sur son blog. Ce type de moteur se différencie en ce qu’il réintroduit l’expertise humaine dans un modèle de recherche algorithmique dominant.
En effet, face à l’automatisation à outrance de la recherche - Google comme Bing mettent surtout en avant la puissance de leurs algorithmes, - ces moteurs proposent un modèle où l’intervention humaine est sollicitée. Celle-ci peut prendre plusieurs formes. Cela va de la qualification et filtrage de l’information du web via la production de listes de résultats supposés être plus pertinents et plus fiables que les moteurs traditionnels par rapport à la recherche de l’internaute, jusqu’aux sites web offrant à l’internaute de sous-traiter sa question, quelle qu’elle soit, à des experts distants, rémunérés ou non.
Un professionnel de l’information doit à notre sens s’interroger constamment sur son positionnement en termes de service et sur les modes de valorisation de son expertise de recherche pour la structure cliente. Dans cette optique, ces moteurs doivent être regardés attentivement.
Nous allons donc essayer ici d’analyser quelques-unes de ces initiatives, y compris celles qui ont échoué, en regardant les modèles proposés, les arguments techniques et commerciaux, et leur performance. Nous pousserons même l’expérience plus loin, puisque nous avons sollicité l’un d’entre eux, AskWonder, pour une recherche d’information réelle, correspondant à une problématique que nous traitons pour un client - afin de pouvoir rendre compte d’une expérience concrète dans cet article.
Déjà abonné ? Connectez-vous...
Entretien croisé entre Joseph Noumbissi, Conseiller - Gestion de l’information documentaire chez Hydro-Québec et Carole Tisserand-Barthole, rédactrice en chef de BASES et NETSOURCES
"L’information est un actif essentiel dans les organisations, et fournit de nombreux avantages, notamment stratégiques, concurrentiels, technologiques, commerciaux, etc.
La survie des services documentaires ou d’information tient essentiellement à leurs capacités d’adaptation et d’innovation.
Les professionnels de l’information, par leur connaissance des sources et des moyens de les exploiter de façon optimale, constituent donc un atout important pour les organisations."
Déjà abonné ? Connectez-vous...
Nous apprenions il y a quelques jours que Pubmed testait une nouvelle interface. Celle-ci est accessible sur Pubmed Labs (https://www.ncbi.nlm.nih.gov/labs/pubmed) et n’a pas vocation à supplanter l’interface actuelle pour le moment. Le but étant de tester de nouvelles fonctionnalités.
Parmi les nouveautés, on notera :
L’éditeur académique De Gruyter vient de lancer Science Discoveries (http://sciencediscoveries.degruyter.com), une plateforme dédiée à l’actualité scientifique sur l’avancement de la recherche dans les domaines de la médecine, santé, environnement et technologie. Le site met en avant la recherche publiée dans les revues de l’éditeur mais avec une mise en contexte permettant de toucher un plus grand public.
On notera que l’éditeur propose également depuis plusieurs années la plateforme Open Science où il met en avant ses contenus en Open Access (http://openscience.com).
Dans le précédent numéro de BASES (L’avenir de la recherche Web sera-t-il thématique ? - BASES n°351 - Septembre 2017), nous avions évoqué le (re)développement des archives thématiques et cité un certain nombre d’initiatives. On pourra donc rajouter à cette liste une nouvelle archive ouverte qui verra le jour au début de l’année 2018 : ESSOAr (http://www.essoar.org). Développée par l’American Geophysical Union et soutenue par l’éditeur Wiley, cette archive ouverte sera dédiée aux science de la terre et de l’espace. Elle commencera à accepter des préprints à partir de début 2018.
Pour la veille audiovisuelle, les professionnels de l’information disposent de toute une panoplie d’outils et de prestataires spécialisés (voir notre article « Veille audiovisuelle : panorama de l’offre » - BASES n°349 - juin 2017).
Parmi eux, on compte la plateforme de veille de LexisNexis Newsdesk. LexisNexis vient d’annoncer avoir conclu un partenariat avec Critical Mention, une entreprise spécialisée dans la veille audiovisuelle, pour améliorer la couverture des sources audiovisuelles au sein de sa plateforme Newsdesk. Fondée en 2002 aux Etats-Unis, Critical Mention surveille plus de 2 200 sources audiovisuelles, notamment aux Etats-Unis, Canada et Grande-Bretagne.
En ce mois d’octobre, l’actualité en provenance de Google ne manque pas... Et le géant américain est présent sur tous les tableaux !
Premier angle d’attaque : l’intelligence artificielle ! On apprenait ainsi il y a quelques jours que Google entraînait son intelligence artificielle à interpréter les gestes humains à partir de séquences vidéos YouTube. Le but est d’être capable de reconnaître 80 actions humaines basiques comme la marche, prendre une photo, courir, nager, etc. Pour Google, cela servira à l’amélioration des capacités prédictives de ses algorithmes et permettra de mieux détecter les vidéos à censurer.
Malheureusement, même si l’intérêt serait réel pour la recherche d’informations sur les contenus audiovisuels, il n’est pas du tout certain que Google transformera cette innovation en une fonctionnalité de recherche pour son moteur de vidéos...
Toujours au niveau de l’intelligence artificielle, on citera une nouvelle étude intéressante réalisée par des chercheurs de l’Université de Cornell qui a comparé l’intelligence de plusieurs IA dont celles de Google, Siri (Apple) et Bing (Microsoft) en leur faisant passer un test de QI. Google serait ainsi le meilleur mais son Qi ne dépasserait pas celui d’un enfant de 6 ans ! Cependant, il y a un an, un test similaire avait été mené et estimait le Qi d’une intelligence artificielle à celle d’un enfant de 4 ans. Même si l’intelligence artificielle est encore loin de remplacer le professionnel de l’information, il faudra en reparlera dans quelques années !
Depuis plusieurs années, la recherche sur mobile prend de l’ampleur. Dans ce domaine la France était un peu à la traîne mais vient de renverser la tendance. Google a ainsi annoncé que plus de 50% des recherches via leur moteur étaient désormais réalisées sur mobile. Néanmoins, on doute qu’il s’agisse là d’une véritable tendance pour la recherche d’information professionnelle...
Sauf si le lancement prochain de l’index Mobile First de Google introduit des différences majeures entre les résultats desktop et mobile. Rappelons que Google qui ne disposait que d’un seul index pour les recherches mobiles et sur ordinateurs a décidé de créer un index spécifique pour les recherches sur mobile, en indexant prioritairement la version mobile d’un site. Les résultats entre une recherche sur mobile et sur ordinateur pourraient ainsi être différents. Google a annoncé récemment que l’index mobile était actuellement en test dans les résultats mais on ne connait pas encore la date à laquelle il sera complètement généralisé.
Sur un autre plan, Google a désormais décidé de « venir en aide » à la presse payante.
Premier événement en date : l’annonce de la fin du programme « First Click Free » qui obligeait les éditeurs de presse à proposer au moins 3 articles en libre accès par jour pour s’assurer un bon référencement auprès du moteur. Désormais Google propose deux recommandations aux éditeurs : proposer une dizaine d’articles /mois à chaque lecteur venant de Google pour ensuite l’inciter à passer à un abonnement payant ou bien proposer uniquement en libre accès quelques lignes de chaque article mais pas le texte intégral.
Deuxième événement : Google souhaite maintenant tirer parti des données personnelles dont il dispose et du machine learning pour aider les éditeurs à conserver leur base d’abonnés payants et l’accroître. Un super VRP pour les éditeurs de presse en quelque sorte. Seul bémol, il semblerait que Google cherche à prendre 30% sur chaque nouvel abonnement ramené par ses soins...
Du côté de Bing, l’actualité est moins réjouissante. On apprenait il y a quelques jours qu’Apple avait décidé de remplacer Bing par Google sur IoS et Mac. Désormais, les utilisateurs des produits Apple effectueront donc leurs recherches Web par défaut sur Google. Suite à cette nouvelle, Bing a annoncé vouloir se recentrer sur la recherche desktop (sur ordinateur). C’est finalement plutôt une bonne nouvelle pour les professionnels de l’information !
Depuis quelques années, la société Datasift permettait d’avoir des données agrégées et anonymisées relatives aux diverses publications et actions (publications, commentaires, j’aime, partages, etc.) effectuées sur Facebook.
Facebook vient d’annoncer qu’il allait proposer son propre outil pour l’analyse et la recherche de posts et commentaires. Il devrait être lancé courant 2018. Les données seront également anonymisées.
On ne sait pas vraiment ce qu’il adviendra de la solution proposée par Datasift qui est notamment utilisée par plusieurs grandes plateformes de veille. Cette annonce confirme la tendance que nous avions observée ces derniers temps avec les grands acteurs du Web qui cherchent toujours plus à monopoliser l’attention des internautes vers leurs plateformes et outils au détriment des applications tierces.
Twitter a récemment indiqué qu’il travaillait sur un bouton « enregistrer » permettant aux utilisateurs d’enregistrer des tweets pour les retrouver plus tard. D’autre part, la société a annoncé faire des tests auprès de certains utilisateurs pour augmenter la taille limite des tweets de 140 à 280 caractères. En fonction des résultats, il se pourrait que cela soit ensuite appliqué à tous les utilisateurs. Affaire à suivre !
Du côté des réseaux sociaux professionnels (RSE), on apprenait récemment que Jamespot, l’un des gros acteurs du secteur avait racheté YoolinkPro, un RSE dont nous avions déjà eu l’occasion de parler dans Netsources (N°82 - septembre/octobre 2009). Jamespot n’en est pas à sa première acquisition après le rachat de Human Connect en 2014 et Sonetin l’année dernière.
Du côté des grosses plateformes de veille, Brandwatch vient d’acquérir Buzzsumo, une plateforme permettant d’identifier contenus marketing et influenceurs sur le web social.
On notera également quelques nouveautés du côté des outils gratuits et bons marchés :
Du côté de l’Open Data, on notera :
En revanche, mauvaise nouvelle du côté des décisions de justice. Le Sénat vient de limiter l’ouverture en Open Data des décisions de justice alors que c’était prévu par la loi Numérique votée il y a un an.
TableBase a longtemps été accessible sur Dialog mais avait été abandonnée lors du passage à Proquest Dialog. La voici de retour.
Cette banque de données est très originale dans la mesure où elle sélectionne des articles de la presse économique internationale depuis 1996 contenant des tableaux qu’elle reprend en détail.
Ces tableaux peuvent être des classements de marques ou d’entreprises, des parts de marché, des nombres de points de vente, des statistiques de production ou de consommation, etc.
Produite par Gale (Cengage Learning), une indexation détaillée permet de bien cibler les résultats.
TableBase est mise à jour chaque semaine.
C’est l’occasion de rappeler que Proquest Dialog offre, comme Dialog auparavant, plusieurs banques de données importantes dans le domaine du business/marketing telles que ABI/Inform Professional, Gale Group PROMT®, ou encore Business & Industry Database.
Nous avons voulu récemment effectuer une recherche dans HighWire Press en complément de recherches dans Proquest Dialog, Scopus et STN sur un sujet qui générait peu de réponses. C’est à cette occasion que nous avons appris qu’HighWire Press avait abandonné son moteur de recherche qui permettait de rechercher dans un grand nombre de publications académiques.
Il n’offre plus maintenant qu’un service aux éditeurs pour constituer leur site Web.
Quant à la recherche, quand nous avons posé la question, notre interlocuteur nous a renvoyé sur … Google Scholar, dommage...
Rappelons qu’HighWire Press a été créé en 1995 au sein de la bibliothèque de l’Université de Stanford en Californie. Nous l’avions présenté dans le n° 290 (Février 2012) de BASES.