Parallèlement aux formes de publicité classiques évoquées précédemment, la publicité Web représente une part toujours plus importante des investissements publicitaires et mérite que l’on s’y intéresse dans un contexte de veille et de recherche d’information.
Et comme pour les publicités classiques, la veille et la recherche sur ces contenus n’a rien à voir avec les méthodes et outils classiques utilisés par les professionnels de l’information.
Nous ne nous intéressons ici qu’à la publicité Web qui se revendique en tant que telle. La publicité sur le Web « déguisée » sera abordée dans le prochain article.
Lire aussi :
Information et publicité : des liaisons dangereuses pour la veille ?
La pige publicitaire : un marché très fermé
Focus sur le format “Story” : une vraie opportunité pour la veille ou simple intrusion des marques dans l’information ?
La publicité masquée pollue-t-elle la veille ?
La publicité en ligne existe sous deux formes :
La publicité en ligne a fait son apparition en France il y a 20 ans de façon très timide. Elle s’est beaucoup développée dans les années 2000 mais l’éclatement de la bulle Internet a fortement ralenti ce phénomène. En France, le montant des investissements publicitaires en ligne a atteint 4,9 milliards d’euros net en 2018 et au niveau mondial, le marché a connu une croissance de plus de 17% entre 2017 et 2018 selon l’Observatoire de l’e-publicité.
Et ce n’est d’ailleurs que cette année que le marché de la publicité en ligne a dépassé le marché de la publicité traditionnelle aux Etats-Unis.
Au niveau mondial, 47% de la publicité se passe aujourd’hui en ligne et la publicité en ligne devrait atteindre 52 % des investissements publicitaires d’ici 2021 selon le rapport Advertising Expenditure Forecasts.
Attention cependant, en 2018, Google et Facebook auraient capté près d’un quart du marché publicitaire mondial et 56.4 % des investissements si on se limite à la publicité en ligne selon une étude réalisée par Warc. On notera cependant qu’Amazon et Microsoft (Bing et LinkedIn) gagnent progressivement des parts de marché.
D’autre part, il faut être conscient que la stratégie publicitaire sur le Web varie beaucoup selon le type d’entreprise. Un récent article publié sur Siècle Digital, un site d’information dédié au digital et nouvelles technologies indiquait ainsi que :
« La grande partie des dépenses publicitaires sur Internet provient de petites entreprises locales qui misent la totalité de leur budget sur Google, et Facebook. L’avantage de ces plateformes est la simplicité de gestion, tout en ciblant un public très précis. A contrario, les grands groupes préfèrent continuer d’investir dans la publicité sur les médias traditionnels, tout en accordant tout de même une part du budget à la publicité en ligne. » (https://siecledigital.fr/2019/07/08/la-publicite-en-ligne-representera-50-des-depenses-publicitaires-en-2021)
Enfin, autre tendance à ne pas négliger : les marques investissent beaucoup dans la publicité sur mobile, les réseaux sociaux et la vidéo.
Notre avis
Dans un contexte de veille et de recherche, on a donc intérêt à concentrer ses efforts sur Google et ses résultats sponsorisés et Facebook car c’est là que se concentrent les principales actions de publicité.
On pourra également regarder Amazon et éventuellement LinkedIn dans un contexte professionnel.
Cependant, il faudra rester à l’affût de nouveaux canaux et formes de publicité car il se peut que le rapport de force évolue dans les années à venir.
Déjà abonné ? Connectez-vous...
Il y a d’un côté la publicité officielle : encarts publicitaires dans la presse, spots TV et radio, résultats sponsorisés sur les moteurs et réseaux sociaux, publicités en display sur des sites, etc. Même si elle dispose toujours d’un espace spécifique, nous avons pu constater que la distinction entre information et publicité n’était pas toujours aussi claire.
De l’autre, il y a une autre catégorie de publicité bien plus trompeuse, non régulée et qui ne coûte pratiquement rien à ceux qui la diffusent, si ce n’est du temps. Les entreprises et les marques auraient donc tort de s’en priver.
Mais les consultants, les freelance cherchent, et trouvent, eux aussi, des moyens détournés pour faire connaître leurs activités et services ; ils n’hésitent plus à mêler contenu informatif, parfois même très intéressant et autopromotion.
Lire aussi :
Information et publicité : des liaisons dangereuses pour la veille ?
La pige publicitaire : un marché très fermé
Focus sur le format “Story” : une vraie opportunité pour la veille ou simple intrusion des marques dans l’information ?
Publicité Web : un secteur en forte croissance à ne pas négliger pour la veille
Déjà abonné ? Connectez-vous...
TENDANCES
• La veille et la recherche d'information à l'ère des « fake news » et de la désinformation
• Les géants du Web face aux « fake news »
PANORAMA
• Tirer parti du fact-checking et du journalisme d'investigation pour la veille et la recherche d information
• Les outils de veille et de recherche professionnels face à la fiabilité des sources
INTERVIEW • Ces start-ups qui investissent le champ de l'évaluation des sources et contenus
METHODOLOGIE • Comment évaluer la fiabilité des sources dans des pays dont on ne connaît pas la langue ?
Déjà abonné ? Connectez-vous...
Comment le phénomène des fake news et de la désinformation impacte le professionnel de l’information dans son quotidien ? Quelles sont les initiatives développées par les géants du Web, la presse, les outils de recherche professionnels et de veille classiques ou des start-ups spécialisées et en quoi cela peut-il être utile dans un contexte de veille ?
Même si la couverture médiatique dont bénéficient les fake news ou infox en français, depuis 2016 et l’élection de Donald Trump, peut donner l’impression qu’il s’agit d’une nouveauté, il s’agit en réalité d’un sujet vieux comme le monde. La désinformation et la diffusion de fausses informations se pratiquent depuis des siècles, certes à moins grande échelle et avec des modalités différentes.
Lire aussi :
Les géants du Web face aux « fake news »
Tirer parti du fact-checking et du journalisme d'investigation pour la veille et la recherche d information
Les outils de veille et de recherche professionnels face à la fiabilité des sources
Ces start-ups qui investissent le champ de l'évaluation des sources et contenus
Comment évaluer la fiabilité des sources dans des pays dont on ne connaît pas la langue ?
Avec le développement des médias sociaux depuis une dizaine d’années, tout le monde peut publier et partager de l’information. Comme beaucoup d’avancées, cela est à double tranchant en permettant :
Ce qui a changé en quelques années, c’est donc le fait que le volume et la vitesse de propagation de ces infox n’a jamais été aussi important.
Et si la désinformation s’est limitée pendant longtemps aux contenus textuels puis aux contenus multimédia avec les images truquées, elle s’attaque désormais avec succès aux vidéos avec le nouveau phénomène des deep fakes (voir glossaire).
Les évolutions de la technologie rendent possible de nouvelles formes de désinformation et facilitent leur production et leur diffusion en masse.
Ainsi, plus aucun contenu n’est à l’abri d’être détourné et truqué de manière très convaincante. Il faut donc être plus prudent que jamais.
De nombreux acteurs du Web, les GAFAM en tête, mais aussi les médias traditionnels et certaines start-ups, se sont donc engouffrés sur le secteur, très porteur, de la lutte contre la désinformation. Nous aurons l’occasion d’analyser ce phénomène dans la suite de ce numéro.
Parallèlement aux fake news, on trouve également des erreurs « plus honnêtes », à savoir involontaires par ignorance, incompréhension ou approximation, que ce soit sur le Web, dans la presse, dans des rapports, etc.
Personne, pas même les experts ou les journalistes n’est à l’abri de diffuser sans le vouloir de fausses informations.
D’autant que certains journalistes, notamment appartenant à certains types de presse, font preuve d’une certaine paresse intellectuelle en se contentant de copier-coller des communiqués, et scoops sans réelle vérification.
On rappellera que dans l’ouvrage « L’information à tout prix » publié en 2017, Julia Cagé estimait que « 64 % de ce qui est publié en ligne est du copié-collé pur et simple ». On a donc d’un côté des médias opérant une course au scoop et peu adeptes de la vérification, et de l’autre, ceux qui cherchent à redorer l’image de la profession en remettant en avant les valeurs-même du journalisme. Et ce sont ces mêmes acteurs qui développent des solutions de fact-checking ou se revendiquent du journalisme d’investigation.
Déjà abonné ? Connectez-vous...
La vérification et l’investigation sont à la base du journalisme. Mais depuis quelques années, on voit apparaître de plus en plus de rubriques, chroniques, outils dédiés au fact-checking développés par des médias et journalistes.
Et au-delà du fact-checking lui-même, on voit également se développer des sites ou comptes sur les médias sociaux créés par des journalistes ou spécialistes de l’investigation qui proposent des listes d’outils gratuits et méthodes pour vérifier la fiabilité d’une information, d’une image ou d’une vidéo.
Lire aussi :
La veille et la recherche d'information à l'ère des « fake news » et de la désinformation
Les géants du Web face aux « fake news »
Les outils de veille et de recherche professionnels face à la fiabilité des sources
Ces start-ups qui investissent le champ de l'évaluation des sources et contenus
Comment évaluer la fiabilité des sources dans des pays dont on ne connaît pas la langue ?
Même si on peut avoir le sentiment d’être à l’abri de la désinformation et des fausses informations lorsque l’on réalise des veilles et recherches d’information plus techniques, scientifiques ou corporate, aucun secteur d’activité n’est réellement épargné.
La veille et la recherche d’informations aujourd’hui passent souvent par une multitude de sources et d’outils très différents : serveurs et bases de données classiques, moteurs Web, agrégateurs de presse, médias sociaux, surface Web, deep Web, etc. sans compter que les recherches ne portent plus uniquement sur du contenu textuel mais de plus en plus sur des contenus multimédias.
Certaines sources et outils sont plus touchés par la désinformation que d’autres (notamment les réseaux sociaux) mais personne n’est réellement à l’abri de relayer des infox ou fausses informations que ce soit volontairement ou non.
Ces pratiques de fact-checking et d’investigation, traditionnellement plutôt associées au journalisme qu’à la veille ou la recherche d’information, ne doivent pas être négligées par les professionnels de l’information qui ont tout intérêt à s’en inspirer. Quels sont les outils et sources de référence en la matière ? Et comment en tirer parti et se les approprier dans un contexte de veille et de recherche d’information ?
Déjà abonné ? Connectez-vous...
Face aux multiples scandales liés à la désinformation ayant éclaboussé les géants du Web ces dernières années, Google, Facebook, Twitter et les autres n’ont eu d’autre choix que de réagir et proposer des solutions pour lutter contre ce phénomène.
Lire aussi :
La veille et la recherche d'information à l'ère des « fake news » et de la désinformation
Tirer parti du fact-checking et du journalisme d'investigation pour la veille et la recherche d information
Les outils de veille et de recherche professionnels face à la fiabilité des sources
Ces start-ups qui investissent le champ de l'évaluation des sources et contenus
Comment évaluer la fiabilité des sources dans des pays dont on ne connaît pas la langue ?
Google reste un des outils de recherche indispensables pour la veille et la recherche d’information. Et le moins que l’on puisse dire, c’est qu’il n’a pas été épargné par les critiques sur son rôle dans la diffusion d’«infox» (voir glossaire) au cours des dernières années : sites douteux, conspirationnistes, racistes, sexistes, révisionnistes etc. très bien classés dans les résultats voire même utilisés dans les featured snippets, accusations de maintenir les internautes dans une bulle de filtres en proposant des résultats personnalisés et adaptés au profil de l’internaute, etc.
Il est vrai qu’aux débuts des featured snippets, ces résultats en position zéro qui extraient des éléments d’une page Web jugée pertinente afin d’apporter directement la réponse à la question de l’internaute, il n’était pas rare de voir émerger des contenus de sites plus que douteux et champions dans la diffusion de fake news.
Il faut dire que ces sites, qui diffusent des infox, avec une intention de nuire, maîtrisent souvent parfaitement les codes du Web et sont généralement très bons en matière de référencement.
Sans qu’on les retrouve nécessairement dans les featured snippets, il n’était pas rare non plus de voir apparaître des sites douteux sur la première page de résultats de Google.
Cette présence de résultats véhiculant des infox dans la première page s’expliquait également par une raison très simple : depuis plusieurs années déjà, Google essaye de comprendre l’intention de l’utilisateur afin de lui fournir des résultats en adéquation avec ses besoins. Le risque est alors de faire ressortir des résultats qui disent à l’internaute ce qu’il a envie d’entendre même si ces résultats proviennent de sites douteux ou diffusant de fausses d’information.
Naturellement, des requêtes du type « est-ce que la terre est plate ? », « le lait est-il cancérigène ? », « les vaccins sont-ils dangereux pour la santé ? » avaient toutes les chances de faire remonter des résultats issus de sites très douteux, voire absolument scandaleux.
Mais force est de constater qu’en quelques années, Google a su améliorer son algorithme afin d’éviter de faire ressortir ce type de résultats sur la première page, même si on n’est jamais à l’abri de quelques surprises. Globalement, ces résultats n’ont pas complètement disparu mais ont souvent été relégués plus loin dans les pages de résultats.
Si la qualité des résultats s’est améliorée, ce n’est peut-être pas uniquement l’œuvre de l’intelligence artificielle et de l’algorithme de Google mais également des search quality evaluators qui travaillent pour Google, soit plus de 10 000 personnes à travers le monde chargées d’évaluer la qualité, l’expertise, l’autorité et la fiabilité de sites et pages Web. Difficile d’évaluer le rôle réel de ces évaluateurs d’autant qu’il y a quelques jours John Mueller, Webmaster Trends Analyst chez Google indiquait qu’en « règle générale, Google n’évalue pas l’autorité d’un site »
Sur ce sujet, on conseillera la lecture d’un livre blanc publié par Google en février dernier et intitulé « How Google fights disinformation » : https://huit.re/Google-fights-disinformation.
On y apprend notamment que, pour Google Search, Google News et YouTube, Google a amélioré son algorithme de ranking pour mieux faire ressortir les sources de qualité, qu’il essaye de mieux détecter les acteurs qui détournent le SEO à des fins non louables et qu’il essaye de fournir toujours plus de contexte et différents points de vue aux internautes afin qu’ils puissent se faire leur propre opinion. On se rappellera ainsi que Google avait annoncé il y a quelques mois le lancement de « Featured Snippets augmentés », capables d’agréger des contenus de sources différentes présentant des avis contradictoires (comme Bing qui l’avait fait quelques mois auparavant).
Du côté de YouTube, Google n’a de cesse de durcir ses conditions d’utilisation et n’hésite pas à supprimer des chaînes jugées « toxiques ».
Et du côté de Google News, Google avait ajouté dès 2017 un label de fact-checking pour certaines informations et articles quand ils avaient été vérifiés par des journalistes.
Enfin, il propose également un moteur de fact-checking disponible à l’adresse suivante https://toolbox.google.com/factcheck/explorer#fce.
Mais en ce qui concerne la baisse de résultats issus de sites douteux, le mérite ne revient peut-être pas uniquement à Google.
En effet, un certain nombre d’acteurs et notamment des entreprises qui voyaient leur image et leur secteur d’activité ternis par des résultats négatifs ou peu flatteurs ont également décidé d’être proactifs (seuls ou aidés par des cabinets spécialisés) en proposant une véritable stratégie de contenu sur le Web (création de pages explicatives, création de portails d’information, posts sponsorisés sur des blogs et sites d’information, etc.) afin de marginaliser ses résultats jugés « nocifs ».
On pensera notamment à cet exemple présenté lors du dernier salon i-expo par le cabinet Boléro sur l’industrie de la laine de verre en France. Certains acteurs de ce secteur, lassés de voir l’image de leur industrie ternie sur la première page de résultats de Google (danger de la laine de verre, alternatives bio à la laine de verre, etc.) ont ainsi choisi une stratégie de production de contenu Web pour mettre en valeur leur industrie (rédaction d’articles, réponses à des interviews dans les médias, création de portails d’information, etc.) et ce, afin de marginaliser les résultats « anxiogènes ».
Déjà abonné ? Connectez-vous...
Comme nous avons pu le voir précédemment, certains géants du Web et les outils de recherche et de veille professionnels commencent progressivement à intégrer des fonctionnalités permettant d’évaluer la fiabilité des sources, notamment en mettant en place des partenariats avec des start-ups qui se positionnement sur l’évaluation des sources et des contenus.
Nous avons interviewé trois acteurs sur le marché français se positionnant sur ce créneau, avec des approches intéressantes mais divergentes. Nous avons par ailleurs identifié les autres acteurs en place, que nous analyserons dans cet article.
Lire aussi :
La veille et la recherche d'information à l'ère des « fake news » et de la désinformation
Les géants du Web face aux « fake news »
Tirer parti du fact-checking et du journalisme d'investigation pour la veille et la recherche d information
Les outils de veille et de recherche professionnels face à la fiabilité des sources
Comment évaluer la fiabilité des sources dans des pays dont on ne connaît pas la langue ?
TrustedOut « exploite les dernières avancées technologiques de machine learning, de web crawling, et de micro-services pour pallier les limites et biais de la curation de contenu manuelle, et fournir des corpus de sources constamment à jour et dignes de confiance. ». TrustedOut a récemment signé un partenariat avec Digimind, qui propose en option l’intégration du produit dans sa plateforme Digimind Intelligence.
Déjà abonné ? Connectez-vous...
Deux phénomènes ont marqué le monde de la veille ces trente dernières années :
- Tout d’abord, l’internationalisation de la demande de veille du client.
- Ensuite, les possibilités impressionnantes de recherche dans toutes les langues, même les plus reculées, offertes via les outils de traduction automatique.
L’entreprise explore un champ d’action et d’innovation de plus en plus étendu géographiquement, mondialisation oblige.
Lire aussi :
La veille et la recherche d'information à l'ère des « fake news » et de la désinformation
Les géants du Web face aux « fake news »
Tirer parti du fact-checking et du journalisme d'investigation pour la veille et la recherche d information
Les outils de veille et de recherche professionnels face à la fiabilité des sources
Ces start-ups qui investissent le champ de l'évaluation des sources et contenus
Google a été le premier à être particulièrement innovant dans la recherche multilingue dans les profondeurs du web, avec des fonctionnalités puissantes de traduction automatique des requêtes et de traduction simultanée des pages des sites web.
Certes il y a plusieurs bémols, comme «l’étrangeté» de certaines expressions traduites automatiquement, la difficulté à traiter les noms de sociétés ou de produits, l’impossibilité de faire des requêtes avancées dans certaines langues.
Déjà abonné ? Connectez-vous...
Après avoir vu comment les géants du Web, les médias, journalistes, professionnels de l’investigation appréhendent la question de la désinformation, qu’en est-il des outils de recherche et de veille professionnels souvent payants.
Comment prennent-ils en compte la question de la désinformation et des fausses informations ? Comment aident-ils leurs utilisateurs à évaluer les contenus et les sources qu’ils agrègent ?
Lire aussi :
La veille et la recherche d'information à l'ère des « fake news » et de la désinformation
Les géants du Web face aux « fake news »
Tirer parti du fact-checking et du journalisme d'investigation pour la veille et la recherche d information
Ces start-ups qui investissent le champ de l'évaluation des sources et contenus
Comment évaluer la fiabilité des sources dans des pays dont on ne connaît pas la langue ?
La question de la désinformation et des fausses informations rejoint un concept crucial et presque « ancestral » pour les professionnels de l’information : celui du sourcing et de la constitution du corpus sur lequel on effectue ses recherches. Rappelons que le sourcing, une des premières étapes de la veille, consiste à identifier les sources les plus pertinentes à mettre sous surveillance.
Dans un processus de veille, qu’elle soit stratégique, concurrentielle, d’innovation, d’image, etc., il est généralement nécessaire d’associer deux approches : d’une part en identifiant une liste de sources pertinentes à mettre sous surveillance (on parle ici de sourcing) et d’autre part, en utilisant et en mettant des alertes sur des outils qui ratissent plus largement le Web afin de détecter régulièrement de nouvelles sources à intégrer à son sourcing ou de nouvelles tendances et angles d’attaque susceptibles d’impacter sa veille.
Les outils de recherche et de veille professionnels sur le marché sont de natures très différentes : difficile de mettre sur le même plan un agrégateur de presse, un serveur scientifique et des plateformes de veille et de social media monitoring.
Et ces positionnements distincts les conduisent à proposer des approches très différentes en matière de constitution de corpus et d’évaluation des sources.
Ainsi, les agrégateurs de presse, serveurs et bases de données traditionnelles ont toujours basé leur modèle sur la constitution d’un corpus fiable et de qualité avec des contenus de presse, de littérature scientifique et académique, de rapports et études de marché, de données financières, etc.
Les plateformes de veille quant à elles, ont débuté avec un positionnement «uniquement Web ouvert», avec des sources librement accessibles en ligne et pas nécessairement simples à évaluer. A l’origine, les outils et plateformes de veille traditionnelles comme KB Crawl, Digimind Intelligence, Website Watcher, etc. ou tout simplement les lecteurs de flux RSS laissaient cette phase de sourcing à la charge de leurs clients. Les utilisateurs étaient en charge de l’identification des sources qu’ils allaient intégrer dans leurs outils. Si les lecteurs de flux RSS ou les outils de veille bon marché ou artisanaux fonctionnent encore essentiellement sur ce modèle, les plateformes de veille payantes ont souvent choisi soit d’intégrer un corpus de sources par défaut ou la possibilité pour l’utilisateur de charger en option des packs de sources.
Enfin, les plateformes de social media monitoring, plus récentes, qui se concentrent sur les médias sociaux au sens large (réseaux sociaux, sites d’actualités, blogs, forums, etc.) ont toujours proposé des corpus de sources les plus larges possibles combinant des contenus très hétérogènes.
On le voit bien, l’importance donnée à la fiabilité des sources et des contenus n’était initialement pas la même selon les différents outils. Mais cela s’expliquait aussi par le type de veille et de recherche visé.
En effet, si dans un contexte de veille concurrentielle, scientifique ou d’innovation, il est crucial de disposer de sources fiables et de qualité, ce n’est clairement pas le but recherché dans un contexte de veille d’image ou de contrefaçon. Tous les contenus, qu’ils soient faux ou issus de sources douteuses méritent alors d’être identifiés.
Mais la mise en lumière des fake news depuis quelques années a conduit bon nombre des différents acteurs à repenser leur stratégie et leur positionnement en matière de fiabilité des sources.
Voyons donc maintenant quelles sont aujourd’hui les différentes approches proposées par les principaux outils de recherche et de veille professionnels.
Déjà abonné ? Connectez-vous...
PANORAMA • Presse, réseaux sociaux, contenus multimédia, littérature scientifique, données, etc. : rechercher sur des contenus très disparates
BRÈVES DE VEILLE • Google ajoute deux nouveaux opérateurs de recherche
MÉTHODOLOGIE
• Quand peut-on clore sa recherche l'esprit tranquille ?
• La recherche d'information ne doit pas être une boîte noire
• Search Lab : 3 méthodologies clé en main
• Comment détecter des innovations de marché ?
• La recherche d information appliquée aux personnes
• Enrichir la veille avec des contenus multimédia
Déjà abonné ? Connectez-vous...