GRANDES TENDANCES
• « Fact-Checking » et « vérification » quel rôle et quels outils pour le veilleur ?
OUTILS DE VEILLE
• Digimind Social, un outil à la hauteur de sa réputation
• Mention, un outil de veille avec du potentiel
LA REVUE DU WEB DE FIN D’ANNÉE
ACTUALITÉS • L’actu en bref
INDEX • Année 2015
Déjà abonné ? Connectez-vous...
La vérification des faits, activité bénéficiant jusqu’à alors de peu de reconnaissance, a connu depuis quelques années une renaissance.
Les raisons de ce nouvel intérêt sont sans doute multiples, mais l’explication la plus souvent avancée est un besoin d’être rassuré face à un flux d’informations toujours plus important et toujours plus douteux.
De fait, l’un des premiers exemples récents de fact-checking « public » fut l’apparition de sites consacrés au démenti de ces légendes urbaines qui circulaient (et continuent de circuler) par e-mail. Ces sites employaient déjà des méthodes bien connues des professionnels de l’information : recherche de l’origine de l’information (bon nombre de ces histoires étaient en effet simplement traduites de l’anglais et adaptées à la France), évaluation de la source, recherche d’un démenti… quel que le soit le type de fact-checking dont on parle (car il y en a plusieurs), ces principes de vérification parallèle de la source puis de l’information en elle-même sont immuables.
Mais si chacun s’accorde sur les grands principes autant que sur l’importance de la vérification de l’information, sa mise en pratique pose un certain nombre de challenges pour les professionnels de l’information.
Dans un premier temps, la définition du concept de fact-checking peut sembler aller de soi : le fact-checking consisterait simplement en la vérification (« checking ») de faits (défini par le Larousse comme « un évènement qui se produit »).
Le problème de cette définition réside dans son caractère vague, qui la rend au final inutilisable. Tout d’abord, car elle est évidente : oui, un professionnel de l’information doit vérifier que les faits qu’ils traitent sont vrais. C’est ainsi que le New-York Times avait, en 2012, été largement critiqué par ses lecteurs pour avoir publié un article intitulé « Est-ce que les journalistes devraient faire du fact-checking ?». La question avait certes été sortie de son contexte, mais était révélatrice d’une incompréhension complète entre le journal et ses lecteurs sur la définition du fact-checking : pour ces derniers, le fact-checking était simplement le travail de base d’un journaliste, et qu’un média puisse se demander s’il devait le faire tenait de l’aberration.
Incompréhension car dans la réalité, et ce depuis près d’un siècle, le travail de fact-checking est souvent dévolu non pas aux journalistes mais à des équipes spécialisées, souvent beaucoup plus proches des départements de documentation que des reporters. Le concept de fact-checking a ainsi toujours été relativement proche des documentalistes et veilleurs.
L’autre problème de cette définition est qu’un professionnel de l’information, qu’il s’agisse d’un journaliste, d’un veilleur ou d’un documentaliste, traitera chaque jour un nombre très important de « faits », et la vérification individuelle de chaque fait n’est pas réaliste. C’est pour cette raison que, dans le cadre d’un fonctionnement quotidien, on s’intéresse plutôt à la qualité de la source, en considérant que des sources réputées comme fiables auront déjà pris la peine de vérifier les faits (ce qui peut amener à la propagation extrêmement rapide de fausses informations lorsque des sources théoriquement de haute fiabilité - par exemple des agences de presse - commettent des erreurs). Pour beaucoup de professionnels de l’information, la vérification des faits proprement dite est finalement relativement rare.
Mais alors qu’est-ce que le fact-checking ? Depuis quelques années, c’est une définition plus restrictive qui a été adoptée, centrée sur les déclarations et les affirmations. Le fact-checking se comprend ainsi aujourd’hui comme la vérification, non pas de n’importe quel fait, mais d’un fait déclaré par une personne ou une organisation importante. Le concept vise essentiellement les hommes politiques, mais s’est avec le temps étendu à toutes les déclarations de personnalités influentes ainsi que d’entreprises ou d’ONG. La notion de « fait » reste, évidemment majeure : on ne peut pas vérifier une opinion ou une prédiction.
Déjà abonné ? Connectez-vous...
Pour poursuivre notre série d’articles sur les outils de veille orientés médias sociaux nous nous intéresserons à la solution Digimind Social, lancée en octobre 2013 par l’éditeur français.
Plus globalement, Digimind, « leader en social media monitoring », est connu pour ses deux logiciels : Digimind Social et Digimind Intelligence.
A ce jour, l’entreprise compte plus de 200 clients et est présent en France comme à l’international, et ce dans plusieurs secteurs (Télécoms, Banque et Assurance, Pharmaceutique, Retail, Tourisme). Elle a récemment été sélectionnée dans le nouveau Top 100 des sociétés du Digital Content.
Déjà abonné ? Connectez-vous...
L’Usine Digitale a publié récemment un article qui s’intéresse à l’importance de l’information pour les entreprises. Selon une enquête de Pure Storage en Europe (fournisseur américain de baies de stockage de données à mémoires flash), plus de la moitié des entreprises ratent des opportunités commerciales faute de disposer à temps des bonnes informations nécessaires. Il s’agit d’une perte d’environ 30 millions d’euros par an. Pure Storage conclut en ces termes : « Big Data, big échec ». Les entreprises disposent d’un océan de données, mais la grande partie de ces données ne présente aucune valeur car elles ne sont pas dans un format exploitable par l’utilisateur métier.
Cet article revient sur une question essentielle - est-il possible de réaliser une veille efficace sans outils professionnels ? Le test a été effectué sur des thématiques liées à la COP21 et essentiellement avec des outils gratuits. L’objectif était de pouvoir collecter le volume exceptionnel de documents en lien avec la COP21, de leur faire subir un traitement linguistique afin d’en dégager les sujets abordés, de détecter des tendances au fil du temps, et enfin de fournir un rendu graphique. Le dispositif de collecte, analyse, partage a été mis en place avec plus de 10 outils différents (de type Google actualités, uKeeper, Tropes, Gephi, Genially, …). Suite à cette expérience, la réponse à la question est clairement « non ». Si l’auteur a pu aller au bout de l’expérience, c’est parce que la veille portait sur un sujet limité dans le temps, mais il serait difficile et pratiquement impossible de tenir sur la longueur.
Dans la partie « Introduction aux humanités numériques » du blog Archinfo, on retrouve un compte-rendu de lecture du travail intitulé « Text as Data: The Promise and Pitfalls of Automatic Content Analysis Methods for Political Texts », réalisé par Justin Grimmer et Brandon M. Stewart. Le document met en évidence les différentes méthodes d’analyse automatique de textes dans le domaine des sciences politiques et parle également de « text mining ».
Parmi les méthodes évoquées, on y retrouve des méthodes de classification ou de graduation, la méthode dite dictionary method, qui est basée sur la fréquence d’apparition de mots-clés à l’intérieur d’un texte et qui permet de déterminer la tonalité globale de différents documents, en définissant à l’avance la tonalité associée à chacun des mots en fonction du contexte. L’auteur du compte-rendu s’interroge également sur l’utilisation de ces méthodes sur le Web, notamment pour les nouveaux contenus (tweets, sms, commentaires, etc).
La société Spectrum Groupe a réalisé en 2015 un benchmark des réseaux sociaux d’entreprise (RSE). Le JDN en propose déjà une synthèse en avant-première.
Pour le benchmark, les experts ont sélectionné les meilleures plateformes de gestion de l’information du marché (réseau social d’entreprise, solutions de gestion de contenu et CMS). Il s’agit de l’analyse d’environ 18 solutions de RSE (Tibbr, Talkspirit, Knowledge Plaza, Yoolink Pro, Seemy, …) sur plus de 170 critères techniques et fonctionnels. Pour chaque solution analysée, Spectrum Groupe propose un graphique sous forme de radar - disponible en détail ici : http://benchmark.spectrumgroupe.fr.
Mention est un outil de veille qui existe depuis maintenant 3 ans. La plateforme est disponible en français, anglais, espagnol et allemand et accessible sur le Web et supports Android et Ios.
L’entreprise créée par cinq français Arnaud Le Blanc, Didier Forest, Thibaud Elzière, le fondateur de fotolia.com et Quentin Nickmans, cofondateur du site e-founders, dispose désormais de bureaux à Paris et New-York et compte plus de 3 000 clients business et 400 000 utilisateurs.
La plateforme est utilisée dans plus de 100 pays mais plus de 50 % de leurs clients se trouvent aux Etats-Unis.
Nombre de sources : il n’est pas possible de donner un chiffre sur le nombre de sources car l’outil crawle en permanence de nouvelles sources.
Gratuites uniquement
Twitter, Facebook (pages publiques uniquement), Instagram, Pinterest, Flickr, You Tube, Dailymotion, Vimeo, Reddit, blogs, et forums.
43 langues
251 pays. Il n’est pas possible de sélectionner les pays lors de la création de l’alerte mais uniquement dans un second temps.
Pas pour le moment mais l’entreprise travaille sur l’intégration de sources locales en Russie et en Chine.
Déjà abonné ? Connectez-vous...
En novembre, Google a annoncé avoir amélioré son système de reconnaissance vocale de demandes effectuées sur son moteur en langage naturel, que ce soit sur mobile ou sur ordinateur. Les améliorations ne sont disponibles que pour la langue anglaise pour le moment.
Depuis le mois de novembre, il est possible de bookmarker des images directement depuis les résultats du moteur Google Images, de les classer par dossier et de les taguer pour les retrouver facilement. Cette fonctionnalité n’est malheureusement disponible qu’aux Etats-Unis pour le moment et uniquement sur mobiles et tablettes.
Du côté des services dérivés du moteur, on notera que Google Maps est désormais disponible offline, c’est à dire qu’il est possible de télécharger la carte d’une zone géographique précise et de la visualiser plus tard même sans connexion internet.
Enfin, pour clore l’année, rappelons que Google a supprimé 13 de ses produits et services en 2015 : Google TV, Google Code, Google Talk, ClientLogin protocol, Google Helpouts, Google+ Photos, PageSpeed Service, Google Catalogs, Autocomplete API, Google Moderator, Google Flu Trends, Google Hotel Finder et ADT for Eclipse.
Topsy, le moteur de recherche racheté par Apple il y a 2 ans et qui permettait d’effectuer des recherches sur Twitter (avec une antériorité remontant à 2006, date du premier tweet) et de s’abonner aux résultats par e-mail, a fermé ses portes au mois de décembre. Rappelons néanmoins que le moteur interne de Twitter permet également d’effectuer des recherches sur les archives depuis son lancement. Après avoir disparu à plusieurs reprises au cours des dernières années, cette fonctionnalité était réapparue à la fin de l’année 2014 et est depuis toujours disponible.
Depuis le mois d’octobre, Twitter a introduit une fonctionnalité de sondage/question. Il est désormais possible de publier sur son compte des questions avec un choix de réponses en cliquant sur l’icône Question sous la zone de saisie des tweets.
L’actualité de Facebook a été riche au cours des derniers mois.
Le géant américain a lancé en novembre une application appelée Notify qui permet d’être alerté sur l’actualité et plus précisément sur ses thématiques favorites. Elle est disponible sur Ios uniquement. Il suffit de sélectionner ses sources d’informations, l’application affiche ensuite en temps réel les nouvelles notifications issues de ces sources.
Concernant son moteur, Facebook a annoncé de nouvelles améliorations. C’est une bonne nouvelle car jusqu’à présent le moteur présentait très peu d’utilité tant les fonctionnalités de recherché était limitée et la pertinence des résultats médiocre. Parmi les nouveautés, une autocomplétion plus rapide lors de la saisie de la recherche, la possibilité d’identifier des conversations et informations sur un sujet donné, et également une indexation de toutes les informations et publications publiques. Lors d’une recherche sur le moteur, l’utilisateur peut maintenant visualiser les résultats par type d’information : Top, les plus récentes, personnes, photos, vidéos, pages, lieux, groupes, app et événements. Facebook cherche de plus en plus à concurrencer Google.
Enfin, Facebook a introduit Signal, un produit spécifiquement destiné et accessible aux journalistes. Il s’agit d’un outil de curation destiné à repérer les sujets les plus en vogues sur Facebook et Instagram.
Enfin, une version entreprise de Facebook devrait être lancée publiquement courant 2016. Elle sera disponible avec un modèle freemium. Cela fait déjà plusieurs années que l’entreprise travaille sur ce projet. Depuis janvier 2015, la solution en béta a été testée par 300 entreprises à travers le monde dont Lagardère Active et Century 21 en France.
Du côté de LinkedIn, l’innovation est également de mise avec le lancement de LinkedIn Lookup, une application qui permet de trouver rapidement les profils de ses collègues dans l’entreprise. A la rentrée, la société a complètement retravaillé sa messagerie pour la rapprocher d’un tchat et a lancé un social selling index pour permettre aux commerciaux de s’évaluer.
Et bonne nouvelle pour les professionnels de l’information, les fonctionnalités de recherche ont également été améliorées en intégrant de la sémantique. Par exemple, lorsqu’on effectue une recherche sur une profession, le moteur va indiquer les titres les plus couramment utilisés, les entreprises et écoles associées. Il est également possible de trouver des candidats potentiels en entrant le profil d’un de ses collaborateurs. Enfin de nouveaux filtres de résultats vont être ajoutés : liens avec l’entreprise, personne qui a déjà postulé au sein de l’entreprise, personne qui intéresse également vos concurrents, candidats intéressés par l’entreprise, etc
Pour Viadeo, cela ne va pas très fort. L’entreprise a décidé de quitter la Chine et de fermer son réseau social local Tianji et à l’autre bout du monde, l’entreprise a pris la décision de fermer son datacenter californien.
Des résultats de Flickr peuvent maintenant s’afficher dans les résultats du moteur Yahoo Images. Si l’utilisateur s’identifie sur son compte Flickr, le moteur pourra intégrer des résultats personnalisés en provenance de Flickr comme notamment ses propres photos, les images des personnes suivies par l’utilisateur ainsi que les photos les plus en vue sur Flickr.
C’est la fin d’une époque, le répertoire historique de Yahoo, qui était l’un des piliers de la recherche d’information Web dans les années 90/2000 a définitivement fermé ses portes.
Savoir quels sites et pages pointent vers un site ou une page Web donnée peut apporter des informations très intéressantes lors d’une veille ou recherche d’informations : identification de sources similaires, savoir qui reprend une information, etc. En 2011, Yahoo avait déjà supprimé son service Site Explorer qui permettait de le faire. C’est désormais Bing qui met fin à son service Link Explorer. Il ne subsistera que la possibilité de savoir quels sont les liens entrants sur son propre site Web mais pas sur celui de concurrents ou sur d’autres sites. (en utilisant l’outil Inbound Links disponible depuis la section Reports & Data).
Instagram teste actuellement la possibilité de se connecter avec plusieurs comptes en même temps. Jusqu’à présent, les personnes disposant de plusieurs comptes Instagram devaient se déconnecter d’un compte et se reconnecter sur un autre pour y poster la même ou une autre image. La société n’indique pas pour le moment si cette nouvelle fonctionnalité sera disponible pour tous et à quelle date.
Pinterest propose depuis le mois de Novembre une nouvelle fonctionnalité de recherche. Sur chaque image présente sur le réseau, il est possible de sélectionner la zone qui nous intéresse et de lancer ensuite une recherche sur cette zone (un tableau, un monument, une marque par exemple) pour identifier des images similaires.
Feedly, le lecteur RSS qui a remplacé Google Reader pour beaucoup de professionnels propose désormais des collections partagées. Les utilisateurs du compte pro peuvent ainsi partager leurs lectures (dossier avec plusieurs flux RSS ou création d’un flux RSS personnalisé) avec d’autres utilisateurs Feedly.
Le monde des moteurs de recherche ne cesse d’évoluer malgré la position toujours dominante de Google. Un nouveau moteur français a d’ailleurs vu le jour à l’automne : premsgo qui fait à la fois office de moteur de recherche à la Google et annuaire de type Pages Jaunes. Sa particularité repose dans le fait qu’il propose des informations sous forme de fiches pour chaque entreprise identifiée.
Toujours en France, le moteur Qwant a lancé un moteur spécifiquement dédié aux enfants : Qwant Junior.
Le moteur russe Yandex, quant à lui propose depuis quelques mois de « l’aléatoirité » dans ses résultats afin de donner plus de visibilité à des sites qui ne ressortent habituellement pas dans les résultats. Des pages a priori pertinentes pour la recherche mais qui n’apparaissent jamais sur la première page sont mises en avant. Le moteur analyse ensuite les réactions des internautes vis à vis de ces liens (clic ou non) et peuvt augmenter son score/ranking à l’avenir.
Plus étonnant, le lancement du moteur Good Gopher, un moteur américain qui veut « sortir de l’information véhiculée par les médias de masse et les organismes gouvernementaux ». L’index de ce moteur est exclusivement composé de médias indépendants et de blogs.
Enfin, on notera le lancement d’un moteur avec une couche sémantique qui se définit comme le plus sûr au monde et respectant la vie privée de ses utilisateurs : Hulbee (https://hulbee.com).
PANORAMA • Les outils de cartographie de l’information
DOSSIER VEILLE MEDIAS SOCIAUX • Meltwater, un grand de la surveillance médias sociaux et presse web
SOURCING
• Surf sur le Net
• Le meilleur du Web,
OUTILS DE VEILLE • Inoreader : Les fonctionnalités de veille collaborative
Déjà abonné ? Connectez-vous...
Le thème récurrent de l’«infobésité» (ce mot-valise désignant un trop plein d’informations caractéristiques des sociétés modernes) a conduit ces dernières années à la recherche de méthodes permettant de clarifier et de faciliter la compréhension de masses importantes de données.
Ces méthodes, souvent issues du milieu du management, vont de l’utilisation d’outils ou d’applications spécifiques jusqu’à des idées plus cocasses, comme celle consistant à faire payer par l’expéditeur chaque email reçu, afin de limiter le nombre de mails inutiles.
La cartographie de l’information est l’une de ces méthodes visant à faciliter l’acquisition mais aussi la dissémination de l’information. Le concept est très ancien, et même sa version moderne remonte aux années 70 : dans un article publié en 1974, Robert Horn, considéré comme l’un des fondateurs de la cartographie de l’information, définit cette dernière en une phrase : « la cartographie de l’information consiste à écrire sans paragraphes ».
Plus spécifiquement, Robert Horn décrit la cartographie de l’information comme une méthode permettant de transformer des paragraphes de textes en des blocs d’information, ou des cartes d’information. Cela doit ensuite permettre d’ « identifier, catégoriser, établir des relations et présenter graphiquement des informations ». Robert Horn définit aussi à ce moment six formats de cartes répondant à trois classifications de l’information : les concepts (un terme technique, ou une phrase assez générale), les structures (un objet physique pouvant être divisé en plusieurs parties) et les processus (des structures évoluant dans le temps).
Le succès de l’« information mapping » a été très rapide. Le développement d’Internet ayant encore augmenté la masse d’information auquel chacun est confronté, la méthode de cartographie de l’information a encore gagné en popularité ces dernières années, se déplaçant des départements managériales pour toucher les étudiants ou même le grand public. De fait, des dizaines (peut-être même des centaines) d’outils inspirés de la méthode de Robert Horn sont apparus. Depuis, néanmoins, le concept a été modifié, le versant « cartographie » prenant une importance de plus en plus grande. Dans la version initiale de Robert Horn, cartographier l’information pouvait simplement consister à diviser celle-ci en blocs, sans que ceux-ci ne soient forcément mis en relation sous forme de cartes (bien que cela fut (?) aussi possible, comme le montrent les six modèles de cartes envisagés par Robert Horn). Avec le temps, cette division en blocs linéaires a été abandonnée par la plupart des outils de cartographie de l’information, pour privilégier une répartition dans l’espace (plus « cartographique » donc).
Cette méthode permet de cartographier un très grand nombre de types d’informations. Cet article va s’intéresser à la cartographie de deux types spécifiques d’informations : les réseaux, et les idées.
La cartographie de l’information est parfaitement adaptée à l’étude des réseaux, car ceux-ci se caractérisent par « un ensemble des relations ». Or, la visualisation des relations entre différentes données est l’un des points forts des méthodes de cartographie de l’information. Les outils de cartographie des réseaux permettent donc d’illustrer, voir même de révéler, des relations entre des individus, des entreprises, des lieux… relations qui seraient sinon restées très obscures. De plus, la cartographie des réseaux s’adapte très bien à l’étude des réseaux sociaux, avec des implications opérationnelles directes : il peut être ainsi très révélateur d’obtenir la cartographie d’un compte twitter afin de savoir qui sont les personnes avec qui il interagit le plus, quels sont ses sujets de prédilections, quel type d’utilisateur est-il…Les outils de cartographie de réseaux sont moins nombreux que pour la cartographie des idées, mais ils sont aussi beaucoup plus complexes. Nous avons donc décidé de n’en présenter que deux, afin de pouvoir décrire leurs spécificités et leur fonctionnement de manière relativement détaillée.
La cartographie des idées est un concept bien plus connu et enseigné, disposant même de sa propre appellation : le Mind mapping, traduit en français par des termes aussi variés que « carte heuristique », « carte cognitive », « carte mentale » ou « carte des idées ». Bien que tous ces termes soient différents, ils retranscrivent tous une volonté de poser sur le papier un processus de réflexion. L’objectif est autant de sauvegarder ce processus pour pouvoir y accéder plus tard que de démultiplier l’efficacité d’une réflexion en permettant de visualiser clairement ses pensées. Les outils de mind mapping étant particulièrement nombreux, nous avons réalisé une sélection de ceux qui nous paraissaient les plus pertinents.
Déjà abonné ? Connectez-vous...
Après l’analyse de Sindup et Synthesio dans le numéro précédent de Netsources, nous continuons notre exploration des plates-formes de surveillance des médias sociaux avec Meltwater, dont l’outil est l’un des plus en vue du marché à une échelle mondiale.
La société Meltwater, d’origine norvégienne, a été fondée en 2001. Elle est implantée dans 55 pays, son siège principal étant à San Francisco. Elle emploie 1000 personnes et compte 24.000 clients.
La société a connu ces dernières années une forte exposition médiatique en étant au centre de la question du droit de la rediffusion de l’information dans le contexte du surf sur Internet, une problématique cruciale de notre temps. L’affaire a débouché sur l’arrêt Meltwater émis par la Cour de Justice de l’Union Européenne en 2014. On trouvera la narration et les conclusions de cette passionnante affaire dans nombre d’articles, et en particulier sur le blog de Laure Marino1.
L’offre actuelle de Meltwater est principalement structurée autour de deux plates-formes. La première, Meltwater mEngage (anciennement la plate-forme Media Buzz), est très développée sur l’engagement, à savoir la possibilité de publier depuis la plate-forme, gérer les demandes et mesurer la portée des messages grâce à la connexion de ses comptes sur les différents réseaux sociaux (Twitter, Facebook, Linkedin, Google+ et Instagram).
La deuxième plate-forme, Meltwater Media Intelligence, est dédiée à la veille sur la presse sur le web, les blogs, forums et medias sociaux, au total sur plus de 30 milliards d’articles et 300 millions de blogs et de commentaires (en comptant également le contenu de Facebook, Youtube, Twitter, et flux RSS). Elle permet de faire un monitoring et d’analyser ce monitoring, ainsi que de créer des newsletters et de les redistribuer.
Ces deux plates-formes partagent un certain nombre de fonctionnalités et d’objectifs, notamment en termes de potentiel d’actions de communication à partir de l’analyse des médias et échanges sur les réseaux. Ici nous nous intéresserons, dans le cadre de notre panorama des outils de veille, à la deuxième plate-forme, Meltwater Media Intelligence.
Déjà abonné ? Connectez-vous...
Le 12 octobre 2015, Digital Science a lancé sa nouvelle base de données GRID. Il s’agit d’une base de données en ligne, gratuite et facile à utiliser, qui contient des informations sur les organismes de recherche à travers le monde.
Elaborée en interne par Digital Science, GRID contient 50.000 noms d’établissements avec des identifiants uniques et des informations de géolocalisation à travers 212 pays. Les données sont tirées de sources des bailleurs de fonds et de publication en libre accès, tels que NIH, PubMed et UK Gateway to Research.
La base de données comprend la majorité d’établissements du monde entier qui ont reçu des financements pour la recherche, disponibles sous une licence internationale CC-BY C-BY Creative Commons Attribution 4.0, qui permet à l’utilisateur de partager ou adapter le contenu disponible pour tout usage, même commercial.
Cette nouvelle base vise à susciter l’innovation, en fournissant aux scientifiques, aux développeurs et aux entrepreneurs des données standardisées sur les différents établissements, qui seront interopérables avec les technologies et les plateformes existantes. C’est également pour assurer la perspicacité, la transparence et la précision, permettant à toute personne intéressée de visualiser et utiliser efficacement la liste commune internationale des organismes de recherche.
Globalement, GRID fournit un point de référence essentiel pour les travaux de recherche et veille à ce que les futures études soient construites sur des données fondamentales et précises.
Lien: https://grid.ac
LibreStock propose une des meilleures bases de données de photos de haute qualité gratuitement sur Internet. Il s’agit d’un métamoteur de recherche qui scanne et indexe les photos à partir de 37 sites différents, comme Pixabay, StockSnap, Freestocks, Pexels, Picography, etc.
Il convient de noter que toutes les photos indexées sur LibreStock sont sous la licence Creative Commons Zéro licence (CC0), ce qui signifie que l’utilisateur peut les modifier, les copier et les diffuser pour un usage personnel mais aussi commercial.
En ce qui concerne la recherche, le métamoteur par défaut cherche sur l’ensemble des sites, mais l’utilisateur peut, via le bouton Filtres, choisir les sites sur lesquels LibreStock va rechercher. Une fois la photo sélectionnée, LibreStock renvoie sur le portail source pour procéder au téléchargement.
Le principe et l’avantage de ce site est de permettre d’effectuer une recherche d’images sur plusieurs sites en même temps, en évitant de se rendre sur chacun d’entre eux pour effectuer les requêtes.
LibreStock est en anglais et les mots-clés utilisés pour les recherches devront donc être également en anglais. La base dispose de plus de 35.600 photos de haute qualité, qui peuvent être utilisées pour toute situation et sans aucune contrainte.
Lien: http://librestock.com
Depuis la fin de cet été LinkedIn poursuit sa stratégie d’innovation. Fin août, le réseau social professionnel a lancé LinkedIn Lookup, une application qui permet aux utilisateurs de trouver facilement les collaborateurs de leur propre entreprise ou organisation.
L’application nécessite que l’utilisateur rattache son compte à celui de l’entreprise, ce qui permettra ensuite de retrouver et communiquer facilement avec les autres utilisateurs s’étant déclarés collaborateurs de la même société. L’application pourrait être utile surtout pour les collaborateurs de grandes sociétés. Cela marque aussi la forte pénétration de LinkedIn dans le monde de l’entreprise.
Début septembre, LinkedIn a changé totalement sa messagerie la rendant plus proche du tchat. Ainsi, ce réseau social professionnel pourrait devenir une vraie plateforme de discussion entre professionnels. Il a également amélioré la fonction de push et de notification par e-mail afin d’être tenu au courant des derniers messages reçus. Cela devrait faciliter la prise de contact entre les différents utilisateurs. Globalement, l’outil devrait aussi devenir plus intelligent avec un service associé de type « assistant intelligent » pour mieux cibler les futurs contacts.
Et enfin une autre nouveauté, LinkedIn a lancé un outil de mesure au service de ses utilisateurs leur permettant de mesurer leur impact sur la plateforme et de savoir si les professionnels savent se vendre sur le réseau. L’outil appelé le « Social Selling Index » dispose d’un score sur 100 attribué par LinkedIn est calculé selon quatre indicateurs : la construction de relations, la personne en tant que marque professionnelle, les interactions avec les insights et les personnes trouvées. Le Social Selling Index mesure la capacité à s’imposer en tant que marque professionnelle, à trouver les bonnes personnes, à communiquer avec les bonnes informations et à construire des relations.