PANORAMA • Veille et recherche d’information audiovisuelle : panorama de l’offre
RETOUR D’EXPÉRIENCE • De l’excellence opérationnelle à une externalisation maîtrisée
AGENDA • ICIC 2017 en octobre à Heidelberg
OUTILS DE VEILLE
• Collecter des informations dans les flux RSS : Inoreader vs Lexis Newsdesk, le match
BREVETS • L'INPI lance un service de cartographie des inventions
Déjà abonné ? Connectez-vous...
La veille et la recherche d’informations audiovisuelles diffèrent considérablement des veilles presse ou Web et, ce en raison même du format de leur contenu.
Certes, les vidéos ou fichiers audio sont aujourd’hui légion sur le Web et il n’est pas difficile de rechercher et d’accéder à des vidéos gratuitement en interrogeant simplement le moteur de vidéos de Google.
Mais cela se complique considérablement quand on souhaite effectuer des recherches ou surveiller le contenu d’émissions ou de vidéos dans leur intégralité afin de savoir si un ou plusieurs termes y ont été cités. Effectuer une recherche textuelle sur du contenu qui ne l’est pas représente alors un véritable challenge...
Nous avions consacré un article à « la recherche d’information audio sur le Web » dans le n° 343 de BASES (décembre 2016) mais nous avions volontairement mis de côté la recherche de mots-clés au sein d’émissions de télévision ou radio.
Dans cet article, nous avons choisi d’explorer les différentes possibilités pour réaliser des veilles et recherches d’informations au sein des contenus d’émissions de télévision ou de radio. Est-il possible de la faire de manière gratuite ou presque ou bien est-il forcément nécessaire de recourir à des prestataires et outils spécialisés ? Quelles méthodes adopter ? Que trouve-t-on en la matière chez les agrégateurs de presse traditionnels comme Pressedd, Europresse, Factiva ou LexisNexis ? Quels sont les prestataires spécialisés en France et vers qui se tourner dans le cas de besoins à l’international ?
Pour pouvoir effectuer une recherche textuelle au sein de contenus audiovisuels, cela suppose que l’éditeur des contenus ou un prestataire externe mette à disposition des transcriptions écrites (transcripts en anglais) sous la forme de contenu html, fichier texte, word ou pdf par exemple ou bien propose un outil/moteur recourant à la technologie du speech to text.
« La reconnaissance automatique de la parole (souvent improprement appelée reconnaissance vocale ou speech to text) est une technique informatique qui permet d’analyser la voix humaine captée au moyen d’un microphone pour la transcrire sous la forme d’un texte exploitable par une machine. » (Source : Wikipédia).
A titre d’exemple, CNN propose les transcripts de ses émissions au format html : http://transcripts.cnn.com/TRANSCRIPTS.
La chaîne de télévision M6 propose, quant à elle, un moteur spécialisé utilisant la technologie du speech to text permettant d’effectuer des recherches sur le contenu de ses émissions et de visualiser l’extrait où apparaît le mot-clé (https://www.m6videobank.fr).
Autre préalable : l’antériorité. S’agit-il de surveiller les nouveaux contenus citant un mot, une marque, etc. ou bien d’effectuer des recherches sur des contenus récents ou datant de plusieurs dizaines d’années ? Et l’on constatera au long de cet article que rechercher au sein d’émissions de télévision et radio anciennes est souvent bien plus compliqué que pour du contenu récent.
Enfin, pour le cas de solutions payantes, il faudra bien se renseigner sur ce que la « surveillance des vidéos, radios et TVs » englobe réellement.
La majorité des outils de recherche et de veille indiquent disposer de vidéos, radios et TV dans leur corpus. En réalité, peu d’entre eux sont réellement capables de surveiller des mots-clés au sein d’une émission de télévision ou radio. La plupart se contentant de surveiller le contenu textuel du site Web des radios et TVs ou les métadonnées des vidéos (titre de la vidéo, descriptif, date de publication, etc.).
Déjà abonné ? Connectez-vous...
Marie-Laure Chesne-Seck est actuellement consultante pour le cabinet Ourouk, spécialisé en management de l’information. Après une carrière de chercheur en biophysique, elle gère l’information scientifique, puis crée une fonction d’« Intelligence Scientifique » pour le public R&D d’un grand groupe pharmaceutique.
Au travers d’une série de trois articles, je souhaitais partager mon expérience de transformation de la fonction info-doc au sein de la R&D d’un grand groupe pharmaceutique.
Rappelons que la feuille de mission qui m’était confiée était large, et comportait notamment la gestion de la transition avec l’offre de service de l’ancienne fonction info-doc, en accompagnant l’autonomisation des publics, la mise en place d’une offre d’« Intelligence scientifique » en support de la prise de décision, l’AMOA1 et l’animation de systèmes d’information collaboratifs, et la gestion intelligente d’un budget destiné à l’outsourcing d’une partie de l’activité.
Lire aussi:
De la recherche d’information vers l’analyse à valeur ajoutée
Le « kit de départ » de la fonction « Intelligence Scientifique », qui m’avait été confié, comportait un budget à gérer pour activer des prestataires extérieurs si nécessaire, lesquels prestataires compléteraient mon « équipe », puisque je débutais seule sur la fonction. Dans mon cas, l’ensemble des motivations ci-dessus étaient présentes, puisqu’en plus de me trouver en situation d’effectif réduit, je devais créer une offre de services, tout en étant novice sur certains aspects.
Déjà abonné ? Connectez-vous...
La manifestation ICIC semble s’être fixée à Heidelberg … lieu de résidence de Christophe Haxel son organisateur.
L’édition 2017 qui se tiendra du dimanche 22 octobre au soir au mardi 24 est dans la ligne des précédentes éditions avec une conférence alternant présentations «scientifiques» et présentations de produits, sans sessions parallèles, le tout accompagné d’une petite exposition.
Les thèmes abordés dans la conférence concerneront le deep learning, l’intelligence artificielle, l’utilisation des brevets tant pour le développement que pour l’analyse.
Plusieurs conférences concerneront aussi spécifiquement la chimie avec des conférenciers issus d’acteurs connus comme ChemAxon, InfoChem ou Minesoft.
On notera, par ailleurs, que Christophe Haxel qui organise aussi la manifestation II SDV, dédiée au data mining et dataviz, lance une nouvelle manifestation en Inde à Bangalore les 2 et 3 novembre 2017 baptisée II-PIC 2017 qui signifie International Indian Patent Information Conference for Patent Information Professionals.
Lien : www.haxel.com
Le processus de veille s’appuie dans bien des cas sur une collecte multi-supports, impliquant une large variété de sources.
Cependant, une grande partie des informations est retrouvée dans des sources d’information de type presse/actualités qu’on peut classer globalement en deux grandes catégories de supports.
D’une part, les sources dites « PRINT », qui sont l’équivalent numérique de ce qui est publié sous forme papier et qu’on peut consulter et surveiller via des serveurs professionnels classiques comme Factiva, Pressedd, Europresse ou LexisNexis ; d’autre part, les sources « ONLINE » ou « WEB » parmi lesquelles on distingue notamment :
Ce contenu correspond à ce qui est diffusé en ligne, mais qui peut pour partie doublonner avec les médias imprimés (par exemple le contenu du quotidien Le Monde, et celui du monde.fr).
Pour capter ce contenu offert en ligne, plusieurs solutions s’offrent au veilleur :
Les outils ne manquent pas pour suivre les flux RSS, il existe en effet depuis de nombreuses années un choix important de lecteurs de flux offrant plus ou moins de possibilités. Cependant, au sein de cette offre pléthorique, deux systèmes innovants se distinguent à nos yeux, et ont de ce fait retenu notre attention :
Au-delà d’un constat de solutions technologiques très différentes, existe-t-il une valeur ajoutée à traiter les flux RSS de façon intégrée au sein d’un agrégateur comme LexisNexis ou bien est-il plus efficace et pratique de les analyser au sein d’un outil dédié tel que Inoreader ? Pour tenter d’apporter un éclairage, nous nous sommes focalisés plus précisément sur les facilités respectives des deux systèmes pour administrer ou gérer l’ajout de flux RSS, sur la comparaison des résultats générés par l’un ou l’autre moyen, et enfin sur l’aspect collaboratif.
Déjà abonné ? Connectez-vous...
L’INPI (Institut national de la propriété intellectuelle) a profité du salon Viva Tech pour lancer son nouveau service de cartographie des inventions.
Cette approche de création de paysages (exemple en Figure 1) avec montagnes, vallées, océans dans lesquels sont positionnés les brevets d’un secteur précis est loin d’être une nouveauté.
Figure 1. Exemple de « Patent landscape »
Cela fait, en effet, de nombreuses années que des serveurs comme Orbit Intelligence ou STN proposent de réaliser de tels paysages.
Déjà abonné ? Connectez-vous...
I-EXPO 2017
• Entre intuition et méthodologie : la veille gagnante en 2017
• Veille, intelligence stratégique et concurrentielle : comment en faire des moteurs au service de l’agilité et des performances ?
RETOUR D’EXPÉRIENCE
• De la gestion de l’accès à l’information vers la création de connaissances via des dispositifs collaboratifs
ACTUALITÉS
• En bref
Déjà abonné ? Connectez-vous...
Cet atelier était organisé par FLA Consultants et animé par Anne-Marie Libmann, directrice opérationnelle, Lilia Rusnac, responsable du pôle International, Aurélie Vathonne, responsable du pôle Veille et Carole Tisserand-Barthole, rédactrice en chef de Bases et Netsources.
La conférence portait sur le profil et les compétences du veilleur dans l’entreprise d’aujourd’hui.
Anne-Marie Libmann a souligné en introduction le rôle d’observateur particulier de la société FLA Consultants, dû à son positionnement original :
Fort de ce positionnement, FLA Consultants observe une forte évolution que l’on pourrait même qualifier de changement de paradigme : le veilleur dans sa pratique et dans sa position n’est plus dans de nombreux cas un expert de l’information, mais un opérationnel qui a intégré une compétence de veille de façon pragmatique à des fins opérationnelles.
Ce n’est donc plus un spécialise de l’information au sens traditionnel du terme, mais plutôt un analyste qu’il serait sans doute plus pertinent de qualifier d’analyste veilleur, suggère Anne-Marie Libmann.
Nous sommes bien loin du modèle du passé, incarné par les centres de documentation, avec un accès unique et central à l’information et aux outils. Et appréhender la façon dont le nouvel « analyste veilleur » agit, réagit et interagit en 2017, n’est pas chose aisée, en raison des pratiques complexes et variées de ce métier, dont le positionnement a connu de fortes évolutions et en connaît encore. Ces évolutions, point de départ de la conférence, sont retracées dans l’encadré en page 3 (plus loin dans cet article).
Déjà abonné ? Connectez-vous...
Cette conférence rassemblait Patrick Devaux (VP Market Intelligence, Airbus), Gaspard Le Roux (Business intelligence analyst, Thales communication & security), Laetitia Nourissat Gourd (Ceo-founder, Decidento) et Valentin Naidja (Directeur Commercial EMEA/APAC chez Talkwalker).
Témoignant de leurs expériences personnelles respectives, les quatre intervenants ont répondu à la problématique suivante : comment faire de la veille le moteur de l’agilité et de l’innovation pour l’entreprise mais aussi de quelle manière organiser sa veille stratégique et concurrentielle et la placer au centre du business de l’organisation ?
Malgré la qualité et la diversité des intervenants, cette conférence n’a pas permis de détecter de concepts novateurs ou d’analyses évolutives et pratiques pertinentes, ni de visions qui tendent à dépasser la stricte définition ou encore les traditionnels obstacles et défis des pôles veille en entreprise.
Ainsi, la veille, son organisation et sa performance au sein de l’entreprise ont été principalement présentées à travers le prisme d’un processus très structuré, qui démarre nécessairement par le cadrage de l’expression des besoins du client avec parallèlement la réalisation d’un sourcing sur mesure. S’en suivent de facto la collecte, l’analyse et enfin la diffusion (interne/externe) de l’information. L’étape de diffusion a été évoquée comme essentielle pour valoriser la veille, par les intervenants et notamment Gaspard Le Roux (Thales) qui a par ailleurs mentionné que des sondages pouvaient être réalisés en interne afin de mesurer l’impact de la veille dans l’entreprise.
Dans une approche visant à renforcer la veille et son efficacité, Patrick Devaux (Airbus) a insisté sur la nécessité de travailler en réseau (interne et externe) et d’établir une veille transverse dans l’entreprise en organisant d’une part la remontée d’information et d’autre part une redistribution de celle-ci vers toutes les business units. De même, l’importance des spécialistes en langues étrangères a une fois encore été présentée comme très stratégique par les intervenants et en particulier Patrick Devaux, qui a également rappelé la nécessité d’une sensibilisation à la veille très tôt au sein des cursus universitaires et des formations en entreprise.
Marie-Laure Chesne-Seck est actuellement consultante pour le cabinet Ourouk, spécialisé en management de l’information. Après une carrière de chercheuse en biophysique, elle gère l’information scientifique, puis crée une fonction d’« Intelligence Scientifique » pour le public R&D d’un grand groupe pharmaceutique.
Dans le cadre d’une série de trois articles, où Marie-Laure Chesne-Seck partage son expérience de la transformation de la fonction info-doc, l’auteur a d’abord exploré1 les pistes suivies pour proposer une offre d’analyse à valeur ajoutée.
Lire aussi :
De la recherche d’information vers l’analyse à valeur ajoutée
De l’excellence opérationnelle à une externalisation maîtrisée
Rappelons que la feuille de mission qui m’était confiée était large, et comportait notamment la gestion de la transition avec l’offre de service de l’ancienne fonction info-doc, en accompagnant l’autonomisation des publics, la mise en place d’une offre d’« Intelligence scientifique » en support de la prise de décision, l’AMOA2 et l’animation de systèmes d’information collaboratifs, et enfin la gestion intelligente d’un budget destiné à l’outsourcing d’une partie de l’activité.
Les deux nouveaux systèmes d’information sur lesquels j’ai été appelée à travailler faisaient partie d’un large programme de refonte de l’ensemble des systèmes d’information destinés au public R&D, lequel incluait la mise en place d’une interface unique permettant d’accéder aux différentes bases de données. Les projets concernés par ce programme allaient du cahier de laboratoire au système de suivi de l’activité, en passant par l’analyse des données. L’idée était de lutter contre les « silos » entre départements, entre métiers, entre équipes en proposant des lieux numériques de discussion et de connaissance accessibles à tous, pour en finir avec les documents stratégiques perdus au fond d’un dossier ou d’une boîte mail.
La participation en tant qu’AMOA à des projets de gestion des connaissances faisait partie des besoins identifiés lors de la création de la fonction d’ « Intelligence Scientifique ». En effet, les équipes IT (DSI), faute de relais business dédié (souvent désigné comme « IT business partner »), finissaient souvent par prendre en charge à la fois l’AMOA et la MOE3, ce qui aboutissait à une insatisfaction de part et d’autre : pour les informaticiens, une surcharge de travail et la contrainte s’assumer des activités en dehors de leurs attributions naturelles ; du coté business, un sentiment de dépossession des problématiques IT, pourtant centrales pour la bonne marche de l’organisation.
Ainsi, la gestion de ces projets s’est faite « main dans la main » avec un chef de projet IT, plus spécifiquement chargé d’adresser les aspects techniques, l’AMOA étant donc chargé de porter les besoins métier.
Déjà abonné ? Connectez-vous...