Pappers, le moteur de recherche gratuit d’information légale et financière des entreprises françaises, vient d’ajouter les décisions de justice à sa base de données.
Le site utilise les données issues de l’open data des décisions de justice pour mettre en ligne l’ensemble des décisions de jurisprudence sur ses fiches entreprises. Pour effectuer une recherche au-delà de la consultation d’une fiche, il vaut toutefois mieux privilégier la version bêta du moteur dédié aux décisions de justice (https://justice.pappers.fr/), plus efficace que le moteur du site.
Outre des résultats plus complets, ce moteur dédié propose des filtres « Juridiction », « date de la décision », « Publication », « Dispositif », « Textes de loi cités » et « Textes de loi non cités ».
En cliquant sur une décision de justice, on accède à une page avec le menu suivant : « Synthèse », « En-tête », « Faits et procédures », « Motifs et Dispositif », et « Chronologie de l’affaire ».
Le site se vante d’avoir 1,5 million de décisions disponibles, issues des décisions du Conseil d’État et de la Cour de Cassation, des cours administratives d’appel, des cours d’appel en matière civile, sociale et commerciale, ainsi que des tribunaux administratifs. Il en promet des dizaines de millions à venir entre juin 2023 et décembre 2025, issues d’autres juridictions judiciaires et administratives (prud’hommes, tribunaux de commerce, etc.)
Voir aussi : NETSOURCES n° 501 (mars 2021), « L’information financière et légale sur les entreprises françaises : entre ouverture et fermeture des données ».
Il n’est pas toujours simple de réaliser des recherches satisfaisantes sur les réseaux sociaux tant les fonctionnalités sont limitées. C’était notamment le cas pour Instagram qui proposait jusqu’à très récemment une version desktop très limitée comparée à son application mobile.
Au début du mois de novembre, Instagram a annoncé le lancement d’une nouvelle version de son site instagram.com sur le web. Au-delà des améliorations cosmétiques, il y a une nouveauté importante qui va améliorer la recherche pour les professionnels de l’information.
Jusqu’à présent, quand on lançait une recherche sur un hashtag dans Instagram (sur la version desktop), on ne visualisait dans les résultats qu’une petite sélection de contenus appelée « meilleures publications ». Il fallait passer par l’application mobile d’Instagram pour voir tous les résultats associés à un hashtag classés par ordre antéchronologique.
Depuis le lancement de la nouvelle interface, on peut également accéder à tous les résultats depuis l’interface desktop.
C’est donc une excellente nouvelle pour les professionnels de l’info qui effectuent la majorité de leur travail sur ordinateur et non sur mobile !
Si les entreprises, marques et outils n’hésitent pas à communiquer sur leurs succès, leurs lancements de produits ou l’ajout de nouvelles sources et fonctionnalités, il est plus rare qu’ils communiquent sur leurs actualités « négatives » comme le retrait de fonctionnalités ou de sources ou leur disparition.
Nous signalons ici les récentes disparitions qui peuvent venir affecter le professionnel dans l’exercice de sa veille et de ses recherches :
Pour en savoir plus, voir notre article paru dans le n° 159 de NETSOURCES - septembre/octobre 2022 : « Comment choisir la méthode la plus adaptée pour mettre une source en veille à partir d’un flux RSS ? »
À l’heure où le réseau social Mastodon profite des mésaventures de Twitter au point d’être parfois présenté comme une véritable alternative décentralisée, il est temps de se demander : comment faire de la veille sur Mastodon ?
Et le moins qu’on puisse dire, c’est que ce n’est pas intuitif. Malgré des similarités visuelles avec Twitter, Mastodon n’a pas du tout le même mode de fonctionnement ni les mêmes fonctionnalités.
Nous sommes donc partis d’un exemple concret : réussir à mettre en place sur Mastodon une veille métier autour de la veille, sujet ô combien important pour les veilleurs pour rester à jour dans leur métier et dans leurs pratiques.
Car, si Mastodon souhaite avoir une chance d’exister face à Twitter, le veilleur doit pouvoir basculer ses précédentes activités de Twitter vers Mastodon. Mais Twitter reste difficile à détrôner. Il conserve une place très importante pour le professionnel de l’information notamment pour sa propre veille métier grâce aux nombreux experts et fonctionnalités avancées qui s’y trouvent.
Alors comment et surtout peut-on reproduire le même schéma sur Mastodon ? Pour y parvenir, il faut effectivement qu’il y ait suffisamment d’experts sur Mastodon qui publient sur la thématique ciblée et que Mastodon nous fournisse des fonctionnalités suffisamment abouties pour pouvoir rechercher des contenus, identifier des utilisateurs pertinents et suivre leurs publications. C’est ce que nous allons vérifier dans cet article.
Mastodon est un réseau décentralisé. Au lieu de faire partie d’un seul réseau social, les membres appartiennent à différentes « instances ». Une instance est le nom donné par Mastodon pour désigner les différents serveurs qui hébergent les membres.
Toute organisation ou toute personne indépendante - qui en a les compétences techniques - peut créer le sien et héberger des utilisateurs. Chaque serveur a ses propres règles, et est interconnectable avec les autres serveurs, en fonction des personnes suivies par les utilisateurs. Chaque groupe correspond donc à un hébergeur (ou à un serveur).
En vertu de sa structure décentralisée, le moteur de recherche installé sur chaque serveur ne permet pas d’explorer l’ensemble des serveurs qui composent Mastodon, mais seulement la partie à laquelle sa propre Instance est connectée. C’est un point très important qu’il faut absolument garder en tête pour la suite.
Déjà abonné ? Connectez-vous...
Depuis quelques semaines, le moteur de recherche OpenBibArt fusionne non plus deux, mais quatre bases de données bibliographiques d’histoire de l’art occidental. On peut désormais y trouver les notices bibliographiques d’articles de périodiques, de livres, de catalogues d’expositions et de ventes publiés entre 1910 et 2007.
Le site, connu des historiens d’art, des chercheurs et plus largement des professionnels et amateurs d’art, regroupe désormais les bases suivantes :
Auparavant, OpenBibart ne permettait la consultation « que » de 550 000 références, de 1973 à 2007, issues du RAA et de la BHA. Dix ans après sa création, le nombre de références indexées a ainsi doublé pour atteindre 1,2 million de notices bibliographiques, grâce au travail conjoint de l’Institut National d’Histoire de l’Art (INHA), du Getty Research Institute (GRI) et de l’Institut de l’Information Scientifique et Technique du CNRS (Inist-CNRS).
Déjà abonné ? Connectez-vous...
Dialog Solutions vient d’ajouter trois stratégies prêtes à l’emploi (Hedges) aux sept qu’il proposait déjà dans le domaine biomédical.
La mise à disposition de requêtes préétablies existe depuis un moment déjà tant pour des serveurs/agrégateurs que pour des banques de données, mais font rarement l’objet de l’attention du public des pros de l’info.
Elles peuvent pourtant être appliquées telles quelles ou servir de base à la constitution de nouvelles stratégies de recherche.
Les requêtes proposées par Dialog sont consacrées, pour le moment, au domaine biomédical. Cela s’explique aisément par le fait que Dialog Solutions a une offre significative dans ce domaine.
Rappelons que Dialog a absorbé le serveur DataStar, qui avait déjà une belle offre dans le domaine. Ce dernier avait entre autres pour objectif de concurrencer le serveur allemand DIMDI et en outre était basé dans un pays - la Suisse - où sont établis de nombreux laboratoires pharmaceutiques.
Déjà abonné ? Connectez-vous...
L’innovation et l’actualité chez Google ne s’arrêtent jamais et ces derniers mois ne dérogent pas à la règle.
Dans cet article, nous faisons le point sur ces innovations récentes et nous testons les fonctionnalités et les produits, dans une perspective de veille et de recherche professionnelles.
En septembre dernier, Google a animé son rendez-vous annuel Search-On où il dévoile toutes ses nouveautés en lien avec son moteur et la recherche d’information.
À cette occasion, nous avons découvert de nouvelles fonctionnalités intéressantes.
Les guillemets dans Google ont toujours servi à rechercher des expressions exactes même si cela n’empêche pas Google de passer outre, de temps à autre, quand il le juge nécessaire.
L’usage des guillemets a récemment évolué, mais c’est au niveau des résultats que cela fait une différence. Les guillemets permettent toujours de rechercher une expression exacte, mais dans les résultats proposés, on peut maintenant visualiser un extrait du contenu contenant spécifiquement cette expression, ce qui permet donc de voir dans quel contexte l’expression est utilisée et déterminer la pertinence du résultat par rapport à ses besoins.
Lire aussi :
Nous avons testé Kagi Search, un nouveau challenger de Google
Nous avons testé Neeva, le moteur qui pourrait remplacer Google chez les pros de l’info
Déjà abonné ? Connectez-vous...
Il y a peu Google a lancé en grande pompe son nouvel espace dans Google Actualités appelé Google Showcase.
Quelle place et quel intérêt peut-il avoir pour le veilleur ? C’est ce que nous avons exploré dans cet article.
Il s’agit d’un nouveau service destiné à mettre en avant les médias de référence d’un pays. Le service est proposé dans différents pays, mais seuls les médias du pays de l’internaute sont disponibles.
En ce qui nous concerne, Google Showcase dispose d’une page dédiée sur Google Actualités qui affiche une sélection d’articles issus de 130 médias français, essentiellement de la presse nationale et locale appartenant à de grands groupes de presse. Pour chaque média, on dispose de trois articles sélectionnés.
Chaque jour ces 130 médias choisissent quelques articles qu’ils mettent à disposition sur Google News Showcase. En échange, Google les rémunère.
Lire aussi :
Comment récupérer un flux RSS sur les moteurs web et Google Actualités ?
L’IA au cœur du nouveau Google Actualités : à réintégrer absolument dans son dispositif de veille
Sourcing : comment détecter des médias réellement nouveaux ?
Peut-on encore utiliser les kiosques numériques pour la recherche presse ?
Figure 1. Interface de News Showcase
Déjà abonné ? Connectez-vous...
Lorsqu’on souhaite mettre en place une veille concurrentielle, une typologie de sources classiques est à surveiller : site du concurrent, presse nationale, locale, spécialisée, etc. La publicité en ligne comme les résultats sponsorisés et annonces publicitaires sur Google et Facebook peut également représenter une piste très intéressante.
Car comprendre la stratégie publicitaire d’un acteur peut en dire long sur sa stratégie globale à court, moyen et long terme. Quels produits ou services choisit-il de mettre en valeur, dans quels pays et quelles régions focalise-t-il ses actions ?
En matière de publicité en ligne, le marché est très largement dominé par Google et Facebook puis dans une moindre mesure Amazon. Ainsi, si nos concurrents ont choisi d’investir dans la publicité en ligne, il y a toutes les chances qu’ils aient choisi Google, Facebook ou bien les deux. Il va donc falloir trouver des solutions pour accéder aux données de Google Ads et de Facebook Ads.
Pendant des années, c’était tout simplement mission impossible, car ni Google ni Facebook ne partageaient librement la moindre donnée en la matière. Une veille sur la publicité en ligne ne pouvait donc se faire qu’en testant des requêtes susceptibles de faire apparaître les publicités de ses concurrents, ce qui ne fournissait que des résultats aléatoires et évidemment incomplets ou en faisant appel à des acteurs spécialisés sur les mesures d’audience et la veille publicitaire.
Lire aussi :
Information et publicité : des liaisons dangereuses pour la veille ?
Les demandes pour plus de transparence de la part des internautes, mais aussi des pouvoirs publics ont fait leur chemin et les différents acteurs ont donc commencé à fournir des informations sur les publicités qu’ils hébergent.
Nous avons donc testé cette nouvelle fonctionnalité de Google pour voir comment on pouvait l’utiliser dans un contexte de veille concurrentielle et quelles étaient ses limites. Nous avons également testé de nouveau la Ad Library de Facebook dont nous avions déjà parlé lors de son lancement pour voir comment elle avait évolué et ce qu’il était toujours possible de faire.
Voir notre article « Publicité Web : un secteur en forte croissance à ne pas négliger pour la veille » - NETSOURCES n° 141 - juillet/août 2019
Déjà abonné ? Connectez-vous...
L’opus 2022 de l’Artificial Intelligence Conference on Search, Data and Text Mining, Analytics and Visualization plus connue sous le vocable « AI-SDV » vient de se terminer dans une atmosphère particulière.
Si les contributions ont été, pour la plupart, de qualité et le réseautage efficace, nous retiendrons que c’est une manifestation de plus que les professionnels de l’information ne connaîtront probablement plus, la faute du Covid qui a « tué » la manifestation à petit feu.
Les plus anciens se souviennent d’un temps où les événements se bousculaient parfois à l’agenda, autant que le public à ces événements. Ces derniers risquent maintenant de se limiter aux dates proposées par l’EPO (European Patent Office) ou les groupes d’utilisateurs. Dans cet article, Benoit Sollie et François Libmann soulignent quelques présentations (disponibles sur Internet) et lignes de force qui ont marqué cette dernière édition.
Avant d’entrer dans le vif du sujet, signalons une coïncidence amusante : la manifestation qui regroupait 60 % des participants en présentiel et 40 % en vidéo avait lieu à quelques centaines de mètres des bureaux viennois de l’EPO. De plus, pour la première fois l’exposition n’avait pas fait le plein.
Wolfgang Thielemann a présenté l’ambitieuse plateforme de littérature scientifique développée par Bayer. Après cinq ans de développements et le travail constant de trois temps pleins (soutenus par des équipes de développeurs externes), la solution peut enfin être globalement déployée au sein du groupe.
Rappelons qu’elle héberge 250 millions d’enregistrements harmonisés, dont les entités et métadonnées ont été extraites par traitement de langage naturel (ou Natural Language Processing en anglais, NLP). La structure de la solution repose sur des ontologies. Le résultat est une interface dépouillée, permettant la recherche simultanée dans de nombreuses bases de données payantes (Elsevier, CAS, transferts technologiques). L’auteur a souligné les efforts fournis, l’architecture et les défis d’un projet d’une telle ampleur.
Déjà abonné ? Connectez-vous...