PANORAMA • Blogs Corporate : source d’information stratégique ou simple instrument de com ?
MÉTHODOLOGIE • Quand la presse se contente de reprendre une dépêche ou un communiqué : comment faire le tri ?
DOSSIER « VEILLE MÉDIAS SOCIAUX » • Un radar hi-tech pour surveiller le web social
A LIRE • La revue du web de janvier-février 2016
AGENDA • Créativité et Innovations dans les pratiques de veille et recherche d’information (Conférence I-Expo – le 24 mars)
L’ACTU EN BREF • L’actualité des moteurs et du Web 2.0
Déjà abonné ? Connectez-vous...
Les blogs font partie de notre quotidien depuis maintenant des années et plus personne ne conteste leur intérêt en tant que sources d’information.
Il est évident que tous ne se valent pas et qu’il convient de regarder précisément qui en est l’auteur pour en évaluer la fiabilité, mais ils apportent généralement un éclairage différent de celui que l’on peut trouver sur des sources plus classiques comme la presse notamment.
Or quand on pense blog, on pense généralement aux blogs d’experts, de particuliers, d’associations, de journalistes, etc. et on a souvent tendance à oublier les blogs d’entreprises (appelés en anglais corporate blogs).
Ces ressources peuvent-elles permettre d’identifier des informations stratégiques, peut-il être intéressant de les surveiller dans le cadre d’une veille ? Et si oui, est-ce valable pour tous les domaines ?
Cet article répondra donc à ces différentes questions et présentera différents éléments de méthodologie pour les identifier facilement.
Enfin, nous présenterons une liste des blogs corporate des grandes entreprises françaises.
En entreprise, on trouve deux types de blogs : les blogs internes destinés uniquement aux salariés de l’entreprise (ce qui n’a donc aucun intérêt pour la veille puisqu’il n’existe aucun moyen d’y accéder de manière légale) et les blogs externes, des blogs mis en place par l’entreprise à destination des internautes (professionnels ou particuliers) à des fins de communication. Ces blogs peuvent émaner de différents services (marketing, communication, direction informatique, etc.) et peuvent donc aborder des thèmes très divers.
Certains s’en serviront comme d’un simple canal de publicité avec des communiqués de presse ou des actualités glorifiant les actions de l’entreprise (notamment l’engagement vers le développement durable, l’aide aux populations défavorisées, etc.), d’autres viseront exclusivement un public non professionnel (recettes de cuisine, guides pratiques pour l’isolation de sa maison, etc.) et enfin, d’autres (et c’est bien là le plus intéressant) proposeront des analyses poussées sur différents sujets.
Déjà abonné ? Connectez-vous...
Que ce soit pour une veille ou une recherche d’informations, la presse reste une source privilégiée.
Néanmoins, on constate fréquemment que de nombreux articles de presse se contentent de reprendre le contenu d’une dépêche ou d’un communiqué de presse soit à l’identique, soit en modifiant le titre et en reformulant quelques phrases.
Or, s’il peut être intéressant pour un service communication de visualiser l’ensemble des retombées sur un sujet (événement, actualités de l’entreprise, etc.), dans la majorité des autres cas, il n’y a aucun intérêt à visualiser des dizaines voire des centaines d’articles répétant strictement la même chose. C’est même une perte de temps…
Alors comment faire pour éliminer ces articles sans valeur ajoutée et comment repérer ceux qui vont plus loin dans l’analyse et apportent des informations complémentaires ?
Pour cela, nous avons décidé de prendre un exemple concret : le rachat par Orange de la société Millicom (marque Tigo) en République Démocratique du Congo.
Nous nous limiterons ici à la presse francophone. Le but est de repérer des données sur le montant de la transaction, la stratégie envisagée derrière ce rachat ainsi que toute autre donnée stratégique.
Déjà abonné ? Connectez-vous...
Radarly est un outil de surveillance du web qui a vu le jour en 2012. Il a été conçu par la société Linkfluence qui depuis 2006, s’est fait connaitre en tant qu’institut d’étude « 2.0 », pionnier de l’analyse sociologique du web, à une époque où le concept-même de web social était encore balbutiant.
Radarly arrive régulièrement dans le top des meilleurs outils de social monitoring. Certains blogueurs l’ont même qualifié de « Rolls-Royce de la veille sur le web social »1 Et de fait, l’un des principes qui ont présidé à sa conception est d’extraire « le meilleur de la veille et de l’IE » pour la collecte et l’analyse des données et « le meilleur du web » pour l’interface et le design.
Après le rachat de son concurrent Trendy Buzz en 2014, Linkfluence a dévoilé en 2015 la V2 de Radarly, avec notamment des fonctionnalités évoluées d’analyse.
Pour bien comprendre comment fonctionne Radarly, il faut prendre conscience du fait qu’il ne s’agit pas d’un « Google des réseaux sociaux ».
Déjà abonné ? Connectez-vous...
En tentant de résoudre cette problématique, Camille Alloing revient sur l’aspect interactif d’Infomous (outil permettant de générer des cartes sémantiques) et sur la manière dont il structure en « clusters sémantiques » les données des flux. Il met d’ailleurs à disposition une cartographie sémantique et interactive nourrie de près de 96 comptes d’enseignants, chercheurs, doctorants et docteurs en science de l’information et de la communication, personnalisable à cette adresse : http://infomous.com/node/59371. Il évoque toutefois les limites de l’outil, en particulier un algorithme sémantique calibré seulement pour la langue anglaise ou encore l’ignorance de l’utilisateur sur la fréquence de mise à jour des flux. Il présente également sa méthodologie de recherche, sans omettre ses limites, dont les principales étapes sont : la sélection des comptes, l’utilisation de TwitRSS.me pour générer un flux RSS et la fusion des flux en un seul grâce à l’outil RSSfusion.org qui est utilisé par la suite dans Infomous.
Facebook sera dorénavant “media-centré”. Les nouvelles fonctionnalités proposées par le réseau social sont principalement à destination des professionnels de l’information, faisant ainsi entrer Facebook en concurrence frontale avec Twitter.
L’article revient sur les récentes innovations du réseau : Instant Articles qui permet d’accéder à un article en un clic ; Signal, instrument de veille réservé aux journalistes, et le moteur de recherche renommé Search FYI. Après avoir évoqué les différentes implications de ce virage media pour les professionnels de l’information, l’auteur prévient qu’il y aura des réticences profondes du fait du choc des cultures : Facebook est avant tout un réseau social passif face à l’information. De plus, il est ici question d’informations relatives à la vie privée et non pas publiques comme c’est le cas sur Twitter.
L’article aborde la façon de trier des listes Twitter grâce à l’opérateur “list:” inscrit dans la barre de recherche. Cet opérateur permet de ne rechercher que les tweets des comptes d’une liste et, combiné à d’autres opérateurs, d’affiner la recherche, faisant ainsi gagner un temps précieux. A l’appui d’impressions écran, l’auteur présente les différentes étapes pour sa mise en application. Il explique ensuite les différents cas où son usage peut être bénéfique, entre autres surveiller des influenceurs, suivre un sujet spécifique traité par des experts, suivre une actualité précise à travers une liste de médias et de journalistes ou encore suivre une liste publique sans s’y abonner.
L’article présente une infographie qui reprend les critères essentiels que doit présenter un influenceur sur les médias sociaux selon l’éditeur de logiciel SproutSocial, http://sproutsocial.com, l’authenticité, la fréquence de publication, l’engagement, l’expertise ou encore le leadership sont par ailleurs nécessaires pour détecter un bon influenceur. Après avoir défini ce qu’était un influenceur et cité les différentes catégories qui existent sur la Toile, l’article énumère les bénéfices que peut tirer une entreprise d’une relation avec un influenceur : plus de crédibilité, accès à un large public, du contenu généré par les utilisateurs, de l’influence sociale ou encore de nouvelles opportunités et de nouveaux clients. L’article aborde ensuite deux manières d’entrer en contact tout en en citant les avantages ainsi que les inconvénients.
Il serait faux de penser que le Big Data n’est réservé qu’aux grandes structures. C’est d’ailleurs cette représentation qui freine beaucoup de petites entreprises qui hésitent à se lancer dans son utilisation. Différentes solutions à des prix abordables permettent d’accéder au Cloud. Il s’agit ensuite à l’entreprise d’exploiter au mieux les données en fonction de ses besoins. L’article cite les différents avantages que peuvent y puiser les petites entreprises afin d’être plus productives et de gagner de l’argent. Il s’agit de garder en tête que le plus important est de savoir ce que l’on recherche et d’user ensuite de sa capacité d’interprétation. Il est alors essentiel de bien définir son projet en amont afin de connaître l’attitude à adopter face aux différentes informations que l’on va obtenir.
L’article nous livre l’avis de L. Noleto, Data Scientist, G. Pataut, mathématicien, et G. Fouetillou de la startup Linkfluence sur le lien entre Big Data et sondages. Le Big Data possède l’avantage de ne rien supposer contrairement au sondage, du fait qu’il permet d’explorer des données collectées sans but prédéfini.
Il ressort toutefois que les sondages et le Big Data sont complémentaires. Le Big Data est particulièrement intéressant lorsqu’il s’agit de capter les tendances émergentes et il permet de passer d’une catégorisation par CSP à une classification par affinité, plus proche de la réalité. Cependant il faut veiller aux corrélations peu pertinentes. Les méthodes statistiques, quant à elles, facilitent le repérage d’indicateurs pertinents. Concernant le cas particulier des sondages politiques, il est important de souligner que les internautes ne constituent pas un échantillon représentatif de la population et une analyse quantitative révélerait plus des actes militants que de véritables opinions. Enfin le Big Data représente des défis techniques, intellectuels et éthiques.
L’auteur explique combien nombre d’inventions ont été le fruit du hasard et se demande ainsi comment il serait possible de cultiver l’art de trouver ce que l’on ne cherche pas. L’une des études de Sanda Erdelez, une scientifique qui tente de répondre à cette question, différencie la population en trois groupes distincts : les “droit au but” qui ont un spectre de vue restreint et qui ne tendent pas à vagabonder lors de leurs recherches d’informations ; les “découvreurs occasionnels” qui font parfois des découvertes inattendues et enfin les “champions de la sérendipité” qui découvrent des surprises partout où ils regardent.
L’auteur insiste sur le fait que les découvertes sont le produit de l’esprit humain. Il cite l’étude PatVal (enquête réalisée auprès de titulaires de brevets) des inventeurs européens, publiée en 2005, qui a mis au jour le fait que 50% des brevets sont issus d’un processus fortuit. En conclusion, l’auteur explique le bienfondé de la mise en place d’un nouveau champ interdisciplinaire qui porterait sur l’étude de la sérendipidité.
Pour fêter les 30 ans de BASES, nous vous invitons à une table-ronde intitulée « Créativité et Innovations dans les pratiques de veille et recherche d’information » qui se tiendra lors du prochain salon I-Expo le 24 mars 2016 de 11h à 11h50. La conférence sera suivie d’un cocktail sur notre stand (F47).
Au programme :
- Évolution des systèmes de bases de données depuis 30 ans (François Libmann)
- Apports et importance des revues professionnelles pour les professionnels de l’information. (intervenant à confirmer)
- Tendances et innovations en matière de veille et de recherche d'information (Anne-Marie Libmann)
- Réflexion sur l’avenir de Bases en adéquation avec les modes de recherche et de diffusion de demain (Carole Tisserand-Barthole)
I-Expo 2016, Parc des Expositions, Paris Porte de Versailles, Pavillon 4.2
Jeudi 24 mars 2016 de 11h à 11h50 - Salle : ZOLA
La guerre entre Google et la presse ne semble pas être terminée, du moins pas en Allemagne. Un groupe d’éditeurs allemands a déposé une plainte en janvier dernier contre le géant américain. Il lui reproche de ne pas respecter la loi sur le copyright des éditeurs de presse « Leistungsschutzrecht für Presseverleger » votée en 2013 en Allemagne. Cette loi prévoit de faire payer les moteurs de recherche et agrégateurs d’actualités dès lors qu’ils affichent des articles de presse (même une partie seulement) dans leurs résultats.
Jusqu’à présent, Google proposait plusieurs API autour de la recherche permettant ainsi aux développeurs d’utiliser et d’intégrer certains services de Google à d’autres sites et applications. Mais à partir du 15 février prochain, Google a annoncé la fermeture des API suivantes : recherche brevets, Google News, recherche dans les blogs, recherche vidéos, recherche images
Le « 2016 Edelman Trust Barometer », un sondage mené par la société Edelman a récemment montré que 60% des personnes sondées (33 000 personnes dans 28 pays différents) faisaient plus confiance aux informations publiées dans Google News qu’aux mêmes actualités publiées sur les sites des journaux.
L’une des principales caractéristiques de Twitter, c’est sa limitation à 140 caractères pour la publication de chaque message. Et pourtant, il se pourrait que cela change. Selon plusieurs sources, Twitter envisage en effet d’augmenter cette limitation à 10 000 caractères (autant que pour les messages privés). Cela pourrait prendre effet au premier trimestre 2016.
Autre nouveauté : Twitter vient de lancer ce qu’il appelle une « timeline améliorée ». Il s’agit d’un nouvel algorithme se basant sur l’activité récente de l’internaute sur Twitter pour déterminer des contenus qui seront mis en avant (en haut de la timeline). Le classement ne serait plus complètement chronologique. Twitter a fait savoir que cette fonctionnalité pourrait être désactivée à tout moment.
Les moteurs de recherche respectant la vie privée des utilisateurs ont la cote en ce moment. Un petit nouveau sur ce créneau vient de voir le jour en Grande-Bretagne. Il s’appelle Oscobo et utilise la technologie de Bing. Les résultats s’affichent sous forme de vignettes et les tweets répondant à la requête sont également affichés. Les résultats ne sont pas personnalisés en fonction des goûts et de l’historique de l’internaute car aucune donnée personnelle n’est conservée.
Seule la version britannique est disponible pour le moment mais une version française devrait voir le jour dans les prochains mois. https://oscobo.co.uk
Pour écouter de la musique à la demande, on pense souvent à utiliser des services comme Spotify, Deezer ou encore YouTube. Il existe également un moteur de recherche de radios Onradio (http://onrad.io) tout à fait intéressant. Il indique sur quelle radio passe à ce moment précis le morceau ou l’artiste de son choix puis se connecte à la radio sélectionnée. Il est également possible d’être alerté lorsqu’un morceau sera prochainement diffusé sur une radio. Enfin, cela permet d’obtenir des statistiques sur le nombre de fois par jour où une chanson est jouée et le nombre de radios qui l’ont diffusée.
Yandex, le moteur de recherche russe vient d’annoncer le lancement de Vladivostok, son moteur de compatibilité mobile, qui favorisera les sites qui s’affichent correctement sur la version du moteur destinée aux smartphones. Selon l’entreprise, seuls 18 % des sites russes sont compatibles mobiles pour le moment.
GRANDES TENDANCES
• « Fact-Checking » et « vérification » quel rôle et quels outils pour le veilleur ?
OUTILS DE VEILLE
• Digimind Social, un outil à la hauteur de sa réputation
• Mention, un outil de veille avec du potentiel
LA REVUE DU WEB DE FIN D’ANNÉE
ACTUALITÉS • L’actu en bref
INDEX • Année 2015
Déjà abonné ? Connectez-vous...
La vérification des faits, activité bénéficiant jusqu’à alors de peu de reconnaissance, a connu depuis quelques années une renaissance.
Les raisons de ce nouvel intérêt sont sans doute multiples, mais l’explication la plus souvent avancée est un besoin d’être rassuré face à un flux d’informations toujours plus important et toujours plus douteux.
De fait, l’un des premiers exemples récents de fact-checking « public » fut l’apparition de sites consacrés au démenti de ces légendes urbaines qui circulaient (et continuent de circuler) par e-mail. Ces sites employaient déjà des méthodes bien connues des professionnels de l’information : recherche de l’origine de l’information (bon nombre de ces histoires étaient en effet simplement traduites de l’anglais et adaptées à la France), évaluation de la source, recherche d’un démenti… quel que le soit le type de fact-checking dont on parle (car il y en a plusieurs), ces principes de vérification parallèle de la source puis de l’information en elle-même sont immuables.
Mais si chacun s’accorde sur les grands principes autant que sur l’importance de la vérification de l’information, sa mise en pratique pose un certain nombre de challenges pour les professionnels de l’information.
Dans un premier temps, la définition du concept de fact-checking peut sembler aller de soi : le fact-checking consisterait simplement en la vérification (« checking ») de faits (défini par le Larousse comme « un évènement qui se produit »).
Le problème de cette définition réside dans son caractère vague, qui la rend au final inutilisable. Tout d’abord, car elle est évidente : oui, un professionnel de l’information doit vérifier que les faits qu’ils traitent sont vrais. C’est ainsi que le New-York Times avait, en 2012, été largement critiqué par ses lecteurs pour avoir publié un article intitulé « Est-ce que les journalistes devraient faire du fact-checking ?». La question avait certes été sortie de son contexte, mais était révélatrice d’une incompréhension complète entre le journal et ses lecteurs sur la définition du fact-checking : pour ces derniers, le fact-checking était simplement le travail de base d’un journaliste, et qu’un média puisse se demander s’il devait le faire tenait de l’aberration.
Incompréhension car dans la réalité, et ce depuis près d’un siècle, le travail de fact-checking est souvent dévolu non pas aux journalistes mais à des équipes spécialisées, souvent beaucoup plus proches des départements de documentation que des reporters. Le concept de fact-checking a ainsi toujours été relativement proche des documentalistes et veilleurs.
L’autre problème de cette définition est qu’un professionnel de l’information, qu’il s’agisse d’un journaliste, d’un veilleur ou d’un documentaliste, traitera chaque jour un nombre très important de « faits », et la vérification individuelle de chaque fait n’est pas réaliste. C’est pour cette raison que, dans le cadre d’un fonctionnement quotidien, on s’intéresse plutôt à la qualité de la source, en considérant que des sources réputées comme fiables auront déjà pris la peine de vérifier les faits (ce qui peut amener à la propagation extrêmement rapide de fausses informations lorsque des sources théoriquement de haute fiabilité - par exemple des agences de presse - commettent des erreurs). Pour beaucoup de professionnels de l’information, la vérification des faits proprement dite est finalement relativement rare.
Mais alors qu’est-ce que le fact-checking ? Depuis quelques années, c’est une définition plus restrictive qui a été adoptée, centrée sur les déclarations et les affirmations. Le fact-checking se comprend ainsi aujourd’hui comme la vérification, non pas de n’importe quel fait, mais d’un fait déclaré par une personne ou une organisation importante. Le concept vise essentiellement les hommes politiques, mais s’est avec le temps étendu à toutes les déclarations de personnalités influentes ainsi que d’entreprises ou d’ONG. La notion de « fait » reste, évidemment majeure : on ne peut pas vérifier une opinion ou une prédiction.
Déjà abonné ? Connectez-vous...
Pour poursuivre notre série d’articles sur les outils de veille orientés médias sociaux nous nous intéresserons à la solution Digimind Social, lancée en octobre 2013 par l’éditeur français.
Plus globalement, Digimind, « leader en social media monitoring », est connu pour ses deux logiciels : Digimind Social et Digimind Intelligence.
A ce jour, l’entreprise compte plus de 200 clients et est présent en France comme à l’international, et ce dans plusieurs secteurs (Télécoms, Banque et Assurance, Pharmaceutique, Retail, Tourisme). Elle a récemment été sélectionnée dans le nouveau Top 100 des sociétés du Digital Content.
Déjà abonné ? Connectez-vous...