L’Usine Digitale a publié récemment un article qui s’intéresse à l’importance de l’information pour les entreprises. Selon une enquête de Pure Storage en Europe (fournisseur américain de baies de stockage de données à mémoires flash), plus de la moitié des entreprises ratent des opportunités commerciales faute de disposer à temps des bonnes informations nécessaires. Il s’agit d’une perte d’environ 30 millions d’euros par an. Pure Storage conclut en ces termes : « Big Data, big échec ». Les entreprises disposent d’un océan de données, mais la grande partie de ces données ne présente aucune valeur car elles ne sont pas dans un format exploitable par l’utilisateur métier.
Cet article revient sur une question essentielle - est-il possible de réaliser une veille efficace sans outils professionnels ? Le test a été effectué sur des thématiques liées à la COP21 et essentiellement avec des outils gratuits. L’objectif était de pouvoir collecter le volume exceptionnel de documents en lien avec la COP21, de leur faire subir un traitement linguistique afin d’en dégager les sujets abordés, de détecter des tendances au fil du temps, et enfin de fournir un rendu graphique. Le dispositif de collecte, analyse, partage a été mis en place avec plus de 10 outils différents (de type Google actualités, uKeeper, Tropes, Gephi, Genially, …). Suite à cette expérience, la réponse à la question est clairement « non ». Si l’auteur a pu aller au bout de l’expérience, c’est parce que la veille portait sur un sujet limité dans le temps, mais il serait difficile et pratiquement impossible de tenir sur la longueur.
Dans la partie « Introduction aux humanités numériques » du blog Archinfo, on retrouve un compte-rendu de lecture du travail intitulé « Text as Data: The Promise and Pitfalls of Automatic Content Analysis Methods for Political Texts », réalisé par Justin Grimmer et Brandon M. Stewart. Le document met en évidence les différentes méthodes d’analyse automatique de textes dans le domaine des sciences politiques et parle également de « text mining ».
Parmi les méthodes évoquées, on y retrouve des méthodes de classification ou de graduation, la méthode dite dictionary method, qui est basée sur la fréquence d’apparition de mots-clés à l’intérieur d’un texte et qui permet de déterminer la tonalité globale de différents documents, en définissant à l’avance la tonalité associée à chacun des mots en fonction du contexte. L’auteur du compte-rendu s’interroge également sur l’utilisation de ces méthodes sur le Web, notamment pour les nouveaux contenus (tweets, sms, commentaires, etc).
La société Spectrum Groupe a réalisé en 2015 un benchmark des réseaux sociaux d’entreprise (RSE). Le JDN en propose déjà une synthèse en avant-première.
Pour le benchmark, les experts ont sélectionné les meilleures plateformes de gestion de l’information du marché (réseau social d’entreprise, solutions de gestion de contenu et CMS). Il s’agit de l’analyse d’environ 18 solutions de RSE (Tibbr, Talkspirit, Knowledge Plaza, Yoolink Pro, Seemy, …) sur plus de 170 critères techniques et fonctionnels. Pour chaque solution analysée, Spectrum Groupe propose un graphique sous forme de radar - disponible en détail ici : http://benchmark.spectrumgroupe.fr.