Dans ce nouvel épisode de notre série consacrée aux sources d’informations par pays, nous nous intéressons aujourd’hui à l’Ukraine.
Le plus grand pays d’Europe en superficie (Russie exceptée) possède en effet un important potentiel, malgré une situation économique et géopolitique complexe.
Pays doté d’une main-d’œuvre à la fois bon marché et qualifiée, large marché de 45 millions d’habitants qui a entamé un processus de rapprochement avec l’Union Européenne, le potentiel de l’Ukraine est en même temps toujours affecté par une corruption endémique, une croissance atone et une situation sécuritaire toujours instable.
Au début de l’année 2016, la majorité des indicateurs économiques de l’Ukraine restaient incertains, malgré une relative stabilisation de la situation depuis 2015 : ainsi, après un effondrement du PIB de 12 % en 2015, la Banque Mondiale prévoit une croissance de 1 % en 2016. L’inflation se maintenait à près de 40 % fin 2015, bien qu’elle soit sur une pente descendante depuis le milieu de l’année. Les exportations ukrainiennes vers l’UE se sont aussi effondrées d’un tiers en 2015 par rapport à 2014 : l’UE reste néanmoins la première destination des exportations ukrainiennes (31,8 % des exportations), devant la Russie (17 %) et la Turquie (6,3 %).
Au-delà de cette situation conjoncturelle difficile, l’Ukraine possède néanmoins plusieurs atouts. Le pays a entamé depuis deux ans un rapprochement avec l’Union Européenne, qui a culminé (d’un point de vue économique, du moins) au 1er janvier avec l’entrée en vigueur de l’accord de libre-échange. Cet accord offre un accès quasi-total (quelques restrictions sont maintenues sur certains secteurs) au marché européen pour les entreprises ukrainiennes, et permettra à terme aux entreprises européennes de bénéficier de la même liberté sur le marché ukrainien.
Ce rapprochement se caractérise de plus par une modification de la législation commerciale ukrainienne visant à la rapprocher des standards européens : à terme, cela facilitera les échanges commerciaux entre l’Ukraine et l’Europe. En plus de cet accord, le rapprochement avec l’UE implique pour l’Ukraine de réaliser un nombre important de réformes destinées à libéraliser son économie, à faciliter l’arrivée d’investisseurs étrangers et à réduire une corruption qui représente encore aujourd’hui l’un des principaux freins à l’investissement. Et si les succès de ces réformes tiennent pour l’heure plus de la rhétorique que du fait établi, le mouvement engagé est réel.
Autre point fort de l’Ukraine, son secteur agricole, l’un des rares à avoir résisté à la récente crise économique, notamment grâce à des investissements massifs réalisés ces dernières années. On peut aussi mentionner le secteur pharmaceutique, qui devrait rester attractif pour des raisons démographiques (la population ukrainienne vieillit) mais aussi car le secteur de la santé est un secteur-clé devant être réformé dans les années à venir, ce qui devrait apporter de nouvelles opportunités pour les entreprises étrangères : au début de l’année 2016, l’entreprise française Sanofi Pasteur a ainsi livré près de 3,7 millions de vaccins contre la polio en Ukraine.
Déjà abonné ? Connectez-vous...
Créé en 2011, Visibrain se présente comme une plateforme de veille de médias en ligne. Sa particularité est qu’elle s’appuie sur Twitter uniquement pour pouvoir surveiller l’ensemble des médias et des blogs, hormis les forums.
Pourquoi Twitter ? D’après les mots de l’un des cofondateurs de la société, Jean-Christophe Gatuingt, ce réseau social est le « système nerveux du web » expliquant par-là que se retrouvent sur une même plateforme des personnes aux profils très différents (médias, journalistes, influenceurs, communautés, etc.) qui s’expriment de manière illimitée et relaient en volumes très importants du contenu de diverses natures (textes, vidéos, photos, audio).
Ainsi, Visibrain entend permettre à ses clients de surveiller et de maîtriser leur image de marque malgré le flux constant de données.
L’élaboration d’une veille sur Visibrain se fait en deux temps. Tout d’abord, il s’agit de créer un « concept », soit un corpus, que l’on souhaite surveiller (selon des mots-clés ou un panel de comptes Twitter).
Ensuite, au sein de ce corpus, des requêtes qui vont constituer des « sujets », permettront de l’affiner. Il est possible d’estimer si un sujet doit être mieux défini ou bien même s’il vaut la peine d’être surveillé (et donc exploré et analysé à travers la plateforme car il engendre une consommation de mentions dont le quota est fixé pour chaque formule) grâce à une timeline s’étalant sur une période de 30 jours et la fonctionnalité « Quick Trends » qui permet de mettre en perspective le sujet par rapport à un autre, voire 5 autres, et parfois, d’en relativiser son importance.
Elle permet également, si une opération de communication vient d’être lancée, de se comparer aux concurrents. Une fois le sujet validé, il apparaît dans la page d’accueil (home page, voir fig. 1 Réservé aux abonnés) et les données sont consultables sur un tableau de bord (dashboard), présentées selon différents filtres d’analyse.
Déjà abonné ? Connectez-vous...
Du côté du géant américain Google, l’actualité ne manque pas aussi bien au niveau du moteur de recherche que de ses autres services.
L’entreprise travaille actuellement sur un algorithme pouvant deviner où une photo a été prise même quand l’utilisateur a désactivé la géolocalisation (et notamment supprimé les données exif qui fournissent ces informations de localisation). Pour le moment, le système arrive à reconnaître le continent dans 48% des cas, le pays dans 28 % des cas, la ville dans 10% et la rue dans 3.6% des cas. Il faudra encore un peu de travail avant que le concept présente un réel intérêt.
Sur le moteur Google images, les internautes peuvent désormais bookmarker les images qui les intéressent (seulement aux Etats-Unis pour le moment).
Enfin, YouTube a ajouté une nouvelle fonctionnalité permettant de flouter des zones sur une vidéo. Cette fonctionnalité n’est bien sûre accessible qu’aux personnes propriétaires de la vidéo souhaitant la charger sur YouTube.
On le sait, Google indexe les documents au format PDF, mais ce que l’on sait moins, c’est qu’il les met peu souvent à jour (c’est-à-dire qu’il ne retourne pas souvent pour crawler un même document) car il considère que les documents PDF sont des documents « stables » qui sont rarement modifiés ou mis à jour. Ce n’est donc pas en passant par Google que l’on pourra surveiller efficacement les changements sur un document PDF.
L’outil de traduction Google Translate offre désormais plus de 100 langues. Il indique couvrir 99% des langues parlées dans le monde. Néanmoins, la qualité de la traduction laisse toujours autant à désirer.
Enfin, du côté des images, Google a averti que la fin de Picasa son outil de stockage et de gestion de photos était proche. A partir du 1er Mai 2016, il ne sera plus possible d’ajouter ou modifier des photos.
Quelques nouveautés chez Bing aussi. Le moteur d’images permet maintenant d’effectuer des recherches d’images par similarité en chargeant une photo présente sur son ordinateur ou en indiquant l’url d’une image. Cela lui permet donc d’offrir les mêmes fonctionnalités que Google en la matière. De même, il est enfin possible de filtrer les résultats de recherche par date dans le moteur (ce que Google fait depuis des années !).
Yahoo est à vendre et Microsoft pourrait être intéressé notamment pour conserver le contrat liant les deux entreprises sur le marché américain.
En début d’année, la fondation Wikimédia avait annoncé son intention de lancer son propre moteur de recherche, ce qui avait suscité de nombreuses réactions. Machine arrière, ils viennent désormais d’indiquer qu’il ne s’agira pas d’un moteur de recherche à part entière et ne viendra pas concurrencer les acteurs du secteur. On a hâte d’en savoir un peu plus !
Les moteurs de recherche Ixquick et StartPage dont nous avions déjà parlé dans le n°110 de Netsources (mai-juin 2014) vont fusionner pour ne faire qu’un seul. Leur créneau : le respect de la vie privée.
Microsoft a de son côté lancé une nouvelle version de son moteur académique (équivalent de Google Scholar) Microsoft Academic. C’est l’aspect sémantique qui aurait été grandement amélioré même si peu d’informations sont pour le moment disponibles.
En Belgique, un nouveau moteur a été lancé en mars 2016. Il s’agit de Lex.be, le premier moteur de recherche pour consulter la législation et la jurisprudence belge (www.lex.be).
Voici également un moteur original Instant Logo Search, un moteur entièrement dédié aux logos de marques. Les logos peuvent être sauvegardés ou téléchargés. (http://instantlogosearch.com). Ce moteur n’effectue la recherche que sur son propre fonds d’images et non sur l’intégralité du Web. Il ne servira donc qu’à trouver un logo que l’on pourra intégrer à une présentation par exemple.
Chez Twitter, on note également plusieurs nouveautés. D’une part le lancement d’un moteur de GIFs (ces images qui bougent fréquemment utilisées sur les réseaux sociaux) intégré à Twitter. Sur un sujet plus sérieux, on entendait depuis plusieurs mois des rumeurs quant à la suppression de la limite de 140 caractères pour la longueur de tweets. Le CEO de Twitter, Jack Dorsey a récemment annoncé que cette limitation ne disparaîtrait pas et ce, même si l’entreprise travaillait sur des évolutions quant à l’affichage des tweets.
Nous en avions déjà parlé mais Twitter a modifié son algorithme et affiche désormais en haut de la timeline une sélection des tweets jugés les plus pertinents. Pour ceux qui voudraient conserver une liste de résultats contenant tous les tweets de ses abonnements classés par ordre antéchronologique, il est possible de désactiver ce nouvel algorithme dans les paramètres de son compte.
Même si l’application n’est pas développée par Twitter, elle est néanmoins très intéressante : l’extension à Google Spreadsheets appelée Twitter Archiver permet de récupérer des tweets sur un compte, un hashtag, un lieu, etc. et de les stocker automatiquement dans le tableur de Google un peu à la manière d’une base de données de tweets.
Toujours pour Twitter, voici un outil qui n’est pas nouveau mais néanmoins intéressant : Keyhole, un moteur qui recherche simultanément sur Twitter et Instagram.
A l’image de Twitter, Instagram a décidé de mettre en place un nouvel algorithme qui ne classe plus les résultats par ordre antéchronologique mais par pertinence (les contenus jugés les plus pertinents pour l’utilisateur). Ce classement prend notamment en compte l’intérêt de l’internaute pour le sujet et la relation avec la personne qui a posté l’image. Autre nouveauté sur la version Web, une nouvelle fonctionnalité permettant de découvrir des comptes à suivre (en lien bien sûr avec ses goûts et son historique). On y accède en haut à droite de l’écran.
Notons qu’un nouvel outil permettant de mesurer la popularité des comptes Instagram appelé Influence by Hypetap (https://influence.hypetap.com) a récemment vu le jour. Il se base notamment sur le nombre de posts, le nombre de followers ou encore le taux d’engagement (capacité à générer des commentaires ou des likes).
Facebook améliore son moteur de recherche en intégrant maintenant dans les résultats les vidéos Live créées par les utilisateurs.
Pinterest vient d’annoncer le lancement de Pins enrichis, c’est à dire qu’il est possible de proposer plus d’informations sur une image que cela n’était possible auparavant. A titre d’exemple, le Pin d’un article de presse pourra désormais contenir le titre de l’article, le nom de l’auteur et un descriptif. Cette fonctionnalité n’est disponible que pour certains types de Pins : applications, films, recettes de cuisine, produits, articles et lieux.
L’outil de veille sur les médias sociaux, Talkwalker a récemment introduit une nouvelle fonctionnalité intéressante : la reconnaissance d’image. Sa nouvelle technologie exclusive permet à plus de 30 000 marques de détecter leurs logos dans les images publiées sur les réseaux sociaux ou ailleurs sur Internet (même lorsque la marque n’est pas mentionnée dans le texte).
De son côté, Synthesio (outil de veille sur les médias sociaux) lance sa version 3.0 avec des innovations intéressantes : back data (recherche d’antériorité), troncature, nouvelles métriques, etc.
Dans un tout autre domaine, l’application mobile Whatsapp permet désormais le partage de PDF.
Le MEDEF lancera à la fin du mois d’avril une plateforme Web avec des MOOCs et des COOCs (version professionnelle du MOOC) sur la thématique du numérique. Elle sera réservée à ses adhérents.
Sondage sur les livrables de veille
Bases, le magazine des professionnels de l’information exigeants va consacrer sa Une de juin aux livrables de veille (panorama des solutions, statistiques sur les pratiques actuelles des professionnels, retours d’expérience, etc). Pour dresser au mieux un état de la situation sur le marché français, nous avons besoin de vous !
Nous avons réalisé un questionnaire en ligne qui nous permettra de mieux comprendre quelles sont les solutions les plus utilisées aujourd’hui, l’importance du livrable et de la diffusion dans le processus de veille, etc.
Il ne vous prendra pas plus de dix minutes! Tous les répondants recevront le numéro de Bases consacré aux livrables de veille dès sa parution.
Il est accessible à l’adresse : http://goo.gl/forms/eprKG4cQSO
PANORAMA • Blogs Corporate : source d’information stratégique ou simple instrument de com ?
MÉTHODOLOGIE • Quand la presse se contente de reprendre une dépêche ou un communiqué : comment faire le tri ?
DOSSIER « VEILLE MÉDIAS SOCIAUX » • Un radar hi-tech pour surveiller le web social
A LIRE • La revue du web de janvier-février 2016
AGENDA • Créativité et Innovations dans les pratiques de veille et recherche d’information (Conférence I-Expo – le 24 mars)
L’ACTU EN BREF • L’actualité des moteurs et du Web 2.0
Déjà abonné ? Connectez-vous...
Les blogs font partie de notre quotidien depuis maintenant des années et plus personne ne conteste leur intérêt en tant que sources d’information.
Il est évident que tous ne se valent pas et qu’il convient de regarder précisément qui en est l’auteur pour en évaluer la fiabilité, mais ils apportent généralement un éclairage différent de celui que l’on peut trouver sur des sources plus classiques comme la presse notamment.
Or quand on pense blog, on pense généralement aux blogs d’experts, de particuliers, d’associations, de journalistes, etc. et on a souvent tendance à oublier les blogs d’entreprises (appelés en anglais corporate blogs).
Ces ressources peuvent-elles permettre d’identifier des informations stratégiques, peut-il être intéressant de les surveiller dans le cadre d’une veille ? Et si oui, est-ce valable pour tous les domaines ?
Cet article répondra donc à ces différentes questions et présentera différents éléments de méthodologie pour les identifier facilement.
Enfin, nous présenterons une liste des blogs corporate des grandes entreprises françaises.
En entreprise, on trouve deux types de blogs : les blogs internes destinés uniquement aux salariés de l’entreprise (ce qui n’a donc aucun intérêt pour la veille puisqu’il n’existe aucun moyen d’y accéder de manière légale) et les blogs externes, des blogs mis en place par l’entreprise à destination des internautes (professionnels ou particuliers) à des fins de communication. Ces blogs peuvent émaner de différents services (marketing, communication, direction informatique, etc.) et peuvent donc aborder des thèmes très divers.
Certains s’en serviront comme d’un simple canal de publicité avec des communiqués de presse ou des actualités glorifiant les actions de l’entreprise (notamment l’engagement vers le développement durable, l’aide aux populations défavorisées, etc.), d’autres viseront exclusivement un public non professionnel (recettes de cuisine, guides pratiques pour l’isolation de sa maison, etc.) et enfin, d’autres (et c’est bien là le plus intéressant) proposeront des analyses poussées sur différents sujets.
Déjà abonné ? Connectez-vous...
Que ce soit pour une veille ou une recherche d’informations, la presse reste une source privilégiée.
Néanmoins, on constate fréquemment que de nombreux articles de presse se contentent de reprendre le contenu d’une dépêche ou d’un communiqué de presse soit à l’identique, soit en modifiant le titre et en reformulant quelques phrases.
Or, s’il peut être intéressant pour un service communication de visualiser l’ensemble des retombées sur un sujet (événement, actualités de l’entreprise, etc.), dans la majorité des autres cas, il n’y a aucun intérêt à visualiser des dizaines voire des centaines d’articles répétant strictement la même chose. C’est même une perte de temps…
Alors comment faire pour éliminer ces articles sans valeur ajoutée et comment repérer ceux qui vont plus loin dans l’analyse et apportent des informations complémentaires ?
Pour cela, nous avons décidé de prendre un exemple concret : le rachat par Orange de la société Millicom (marque Tigo) en République Démocratique du Congo.
Nous nous limiterons ici à la presse francophone. Le but est de repérer des données sur le montant de la transaction, la stratégie envisagée derrière ce rachat ainsi que toute autre donnée stratégique.
Déjà abonné ? Connectez-vous...
Radarly est un outil de surveillance du web qui a vu le jour en 2012. Il a été conçu par la société Linkfluence qui depuis 2006, s’est fait connaitre en tant qu’institut d’étude « 2.0 », pionnier de l’analyse sociologique du web, à une époque où le concept-même de web social était encore balbutiant.
Radarly arrive régulièrement dans le top des meilleurs outils de social monitoring. Certains blogueurs l’ont même qualifié de « Rolls-Royce de la veille sur le web social »1 Et de fait, l’un des principes qui ont présidé à sa conception est d’extraire « le meilleur de la veille et de l’IE » pour la collecte et l’analyse des données et « le meilleur du web » pour l’interface et le design.
Après le rachat de son concurrent Trendy Buzz en 2014, Linkfluence a dévoilé en 2015 la V2 de Radarly, avec notamment des fonctionnalités évoluées d’analyse.
Pour bien comprendre comment fonctionne Radarly, il faut prendre conscience du fait qu’il ne s’agit pas d’un « Google des réseaux sociaux ».
Déjà abonné ? Connectez-vous...
En tentant de résoudre cette problématique, Camille Alloing revient sur l’aspect interactif d’Infomous (outil permettant de générer des cartes sémantiques) et sur la manière dont il structure en « clusters sémantiques » les données des flux. Il met d’ailleurs à disposition une cartographie sémantique et interactive nourrie de près de 96 comptes d’enseignants, chercheurs, doctorants et docteurs en science de l’information et de la communication, personnalisable à cette adresse : http://infomous.com/node/59371. Il évoque toutefois les limites de l’outil, en particulier un algorithme sémantique calibré seulement pour la langue anglaise ou encore l’ignorance de l’utilisateur sur la fréquence de mise à jour des flux. Il présente également sa méthodologie de recherche, sans omettre ses limites, dont les principales étapes sont : la sélection des comptes, l’utilisation de TwitRSS.me pour générer un flux RSS et la fusion des flux en un seul grâce à l’outil RSSfusion.org qui est utilisé par la suite dans Infomous.
Facebook sera dorénavant “media-centré”. Les nouvelles fonctionnalités proposées par le réseau social sont principalement à destination des professionnels de l’information, faisant ainsi entrer Facebook en concurrence frontale avec Twitter.
L’article revient sur les récentes innovations du réseau : Instant Articles qui permet d’accéder à un article en un clic ; Signal, instrument de veille réservé aux journalistes, et le moteur de recherche renommé Search FYI. Après avoir évoqué les différentes implications de ce virage media pour les professionnels de l’information, l’auteur prévient qu’il y aura des réticences profondes du fait du choc des cultures : Facebook est avant tout un réseau social passif face à l’information. De plus, il est ici question d’informations relatives à la vie privée et non pas publiques comme c’est le cas sur Twitter.
L’article aborde la façon de trier des listes Twitter grâce à l’opérateur “list:” inscrit dans la barre de recherche. Cet opérateur permet de ne rechercher que les tweets des comptes d’une liste et, combiné à d’autres opérateurs, d’affiner la recherche, faisant ainsi gagner un temps précieux. A l’appui d’impressions écran, l’auteur présente les différentes étapes pour sa mise en application. Il explique ensuite les différents cas où son usage peut être bénéfique, entre autres surveiller des influenceurs, suivre un sujet spécifique traité par des experts, suivre une actualité précise à travers une liste de médias et de journalistes ou encore suivre une liste publique sans s’y abonner.
L’article présente une infographie qui reprend les critères essentiels que doit présenter un influenceur sur les médias sociaux selon l’éditeur de logiciel SproutSocial, http://sproutsocial.com, l’authenticité, la fréquence de publication, l’engagement, l’expertise ou encore le leadership sont par ailleurs nécessaires pour détecter un bon influenceur. Après avoir défini ce qu’était un influenceur et cité les différentes catégories qui existent sur la Toile, l’article énumère les bénéfices que peut tirer une entreprise d’une relation avec un influenceur : plus de crédibilité, accès à un large public, du contenu généré par les utilisateurs, de l’influence sociale ou encore de nouvelles opportunités et de nouveaux clients. L’article aborde ensuite deux manières d’entrer en contact tout en en citant les avantages ainsi que les inconvénients.
Il serait faux de penser que le Big Data n’est réservé qu’aux grandes structures. C’est d’ailleurs cette représentation qui freine beaucoup de petites entreprises qui hésitent à se lancer dans son utilisation. Différentes solutions à des prix abordables permettent d’accéder au Cloud. Il s’agit ensuite à l’entreprise d’exploiter au mieux les données en fonction de ses besoins. L’article cite les différents avantages que peuvent y puiser les petites entreprises afin d’être plus productives et de gagner de l’argent. Il s’agit de garder en tête que le plus important est de savoir ce que l’on recherche et d’user ensuite de sa capacité d’interprétation. Il est alors essentiel de bien définir son projet en amont afin de connaître l’attitude à adopter face aux différentes informations que l’on va obtenir.
L’article nous livre l’avis de L. Noleto, Data Scientist, G. Pataut, mathématicien, et G. Fouetillou de la startup Linkfluence sur le lien entre Big Data et sondages. Le Big Data possède l’avantage de ne rien supposer contrairement au sondage, du fait qu’il permet d’explorer des données collectées sans but prédéfini.
Il ressort toutefois que les sondages et le Big Data sont complémentaires. Le Big Data est particulièrement intéressant lorsqu’il s’agit de capter les tendances émergentes et il permet de passer d’une catégorisation par CSP à une classification par affinité, plus proche de la réalité. Cependant il faut veiller aux corrélations peu pertinentes. Les méthodes statistiques, quant à elles, facilitent le repérage d’indicateurs pertinents. Concernant le cas particulier des sondages politiques, il est important de souligner que les internautes ne constituent pas un échantillon représentatif de la population et une analyse quantitative révélerait plus des actes militants que de véritables opinions. Enfin le Big Data représente des défis techniques, intellectuels et éthiques.
L’auteur explique combien nombre d’inventions ont été le fruit du hasard et se demande ainsi comment il serait possible de cultiver l’art de trouver ce que l’on ne cherche pas. L’une des études de Sanda Erdelez, une scientifique qui tente de répondre à cette question, différencie la population en trois groupes distincts : les “droit au but” qui ont un spectre de vue restreint et qui ne tendent pas à vagabonder lors de leurs recherches d’informations ; les “découvreurs occasionnels” qui font parfois des découvertes inattendues et enfin les “champions de la sérendipité” qui découvrent des surprises partout où ils regardent.
L’auteur insiste sur le fait que les découvertes sont le produit de l’esprit humain. Il cite l’étude PatVal (enquête réalisée auprès de titulaires de brevets) des inventeurs européens, publiée en 2005, qui a mis au jour le fait que 50% des brevets sont issus d’un processus fortuit. En conclusion, l’auteur explique le bienfondé de la mise en place d’un nouveau champ interdisciplinaire qui porterait sur l’étude de la sérendipidité.
Pour fêter les 30 ans de BASES, nous vous invitons à une table-ronde intitulée « Créativité et Innovations dans les pratiques de veille et recherche d’information » qui se tiendra lors du prochain salon I-Expo le 24 mars 2016 de 11h à 11h50. La conférence sera suivie d’un cocktail sur notre stand (F47).
Au programme :
- Évolution des systèmes de bases de données depuis 30 ans (François Libmann)
- Apports et importance des revues professionnelles pour les professionnels de l’information. (intervenant à confirmer)
- Tendances et innovations en matière de veille et de recherche d'information (Anne-Marie Libmann)
- Réflexion sur l’avenir de Bases en adéquation avec les modes de recherche et de diffusion de demain (Carole Tisserand-Barthole)
I-Expo 2016, Parc des Expositions, Paris Porte de Versailles, Pavillon 4.2
Jeudi 24 mars 2016 de 11h à 11h50 - Salle : ZOLA
La guerre entre Google et la presse ne semble pas être terminée, du moins pas en Allemagne. Un groupe d’éditeurs allemands a déposé une plainte en janvier dernier contre le géant américain. Il lui reproche de ne pas respecter la loi sur le copyright des éditeurs de presse « Leistungsschutzrecht für Presseverleger » votée en 2013 en Allemagne. Cette loi prévoit de faire payer les moteurs de recherche et agrégateurs d’actualités dès lors qu’ils affichent des articles de presse (même une partie seulement) dans leurs résultats.
Jusqu’à présent, Google proposait plusieurs API autour de la recherche permettant ainsi aux développeurs d’utiliser et d’intégrer certains services de Google à d’autres sites et applications. Mais à partir du 15 février prochain, Google a annoncé la fermeture des API suivantes : recherche brevets, Google News, recherche dans les blogs, recherche vidéos, recherche images
Le « 2016 Edelman Trust Barometer », un sondage mené par la société Edelman a récemment montré que 60% des personnes sondées (33 000 personnes dans 28 pays différents) faisaient plus confiance aux informations publiées dans Google News qu’aux mêmes actualités publiées sur les sites des journaux.
L’une des principales caractéristiques de Twitter, c’est sa limitation à 140 caractères pour la publication de chaque message. Et pourtant, il se pourrait que cela change. Selon plusieurs sources, Twitter envisage en effet d’augmenter cette limitation à 10 000 caractères (autant que pour les messages privés). Cela pourrait prendre effet au premier trimestre 2016.
Autre nouveauté : Twitter vient de lancer ce qu’il appelle une « timeline améliorée ». Il s’agit d’un nouvel algorithme se basant sur l’activité récente de l’internaute sur Twitter pour déterminer des contenus qui seront mis en avant (en haut de la timeline). Le classement ne serait plus complètement chronologique. Twitter a fait savoir que cette fonctionnalité pourrait être désactivée à tout moment.
Les moteurs de recherche respectant la vie privée des utilisateurs ont la cote en ce moment. Un petit nouveau sur ce créneau vient de voir le jour en Grande-Bretagne. Il s’appelle Oscobo et utilise la technologie de Bing. Les résultats s’affichent sous forme de vignettes et les tweets répondant à la requête sont également affichés. Les résultats ne sont pas personnalisés en fonction des goûts et de l’historique de l’internaute car aucune donnée personnelle n’est conservée.
Seule la version britannique est disponible pour le moment mais une version française devrait voir le jour dans les prochains mois. https://oscobo.co.uk
Pour écouter de la musique à la demande, on pense souvent à utiliser des services comme Spotify, Deezer ou encore YouTube. Il existe également un moteur de recherche de radios Onradio (http://onrad.io) tout à fait intéressant. Il indique sur quelle radio passe à ce moment précis le morceau ou l’artiste de son choix puis se connecte à la radio sélectionnée. Il est également possible d’être alerté lorsqu’un morceau sera prochainement diffusé sur une radio. Enfin, cela permet d’obtenir des statistiques sur le nombre de fois par jour où une chanson est jouée et le nombre de radios qui l’ont diffusée.
Yandex, le moteur de recherche russe vient d’annoncer le lancement de Vladivostok, son moteur de compatibilité mobile, qui favorisera les sites qui s’affichent correctement sur la version du moteur destinée aux smartphones. Selon l’entreprise, seuls 18 % des sites russes sont compatibles mobiles pour le moment.