Dans une ère caractérisée par la volatilité des données numériques et le développement de l’IA dans notre sphère informationnelle, le rôle des professionnels continue de se transformer. Ceux-ci doivent affirmer toujours plus leur rôle de médiateur entre la technologie et les utilisateurs, et développer une compréhension critique des outils proposés.
La suppression du cache par Google a mis en lumière la fragilité de notre accès aux informations historiques, et marque d’une certaine façon la fin de l’ère de l’accès instantané et illimité. Elle met également en évidence l’importance qu’il y a à élaborer des stratégies d’archivage et de recherche rigoureuses pour sauvegarder les contenus numériques.
L’intégration croissante de l’intelligence artificielle dans les pratiques médiatiques modifie profondément les méthodes de travail des journalistes, mais aussi des professionnels de la veille. L’automatisation de tâches telles que la transcription de podcasts et la synthèse d’articles vise à libérer du temps pour des analyses journalistiques plus poussées. Toutefois, cela nécessite une vigilance accrue de notre part pour garantir la véracité et de qualité des informations, dont les méthodes de production deviennent parfois opaques.
Le fact-checking, autrefois domaine réservé à l’expertise humaine, bénéficie maintenant d’un coup de pouce de l’IA. Cependant, la fiabilité de ces outils de contrôle dopés à l’IA doit être constamment évaluée et testée. Nous nous retrouvons dans une situation inédite : utiliser l’IA pour contrôler l’exactitude d’autres productions potentiellement issues de l’IA elle-même.
Enfin, les agrégateurs de flux RSS, comme Inoreader, proposent de nouvelles manières de gérer notre mémoire informationnelle. Ces outils, véritables extensions du cerveau humain, permettent un accès rapide à l’information tout en exigeant une utilisation judicieuse pour éviter la surcharge d’informations et assurer la conservation de l’essentiel.
À lire dans ce numéro :
Médias + IA : la nouvelle équation à laquelle il faut s’adapter
Second cerveau digital : jusqu’où Inoreader nous aide-t-il ?
Google a récemment annoncé qu’il avait retiré le cache des pages Web dans les résultats du moteur. C’était pourtant une option bien utile quand une page ou un site n’était pas disponible.
Le cache est cependant toujours disponible si on utilise l’opérateur dédié dans la requête : cache:bases-publications.com
. Mais cette fonctionnalité a aussi vocation à disparaître dans les prochains mois.
Danny Sullivan, un des porte-parole de Google a expliqué que le cache « était destiné à aider les gens à accéder aux pages quand, à l’époque, on ne pouvait souvent pas compter sur le chargement d’une page. De nos jours, les choses se sont grandement améliorées. Il a donc été décidé de le retirer. »
Heureusement, il existe plusieurs options quand on souhaite visualiser l’historique d’un site ou quand il n’est tout simplement pas disponible. La plus connue et que l’on ne présente plus est la Wayback Machine proposée par Internet Archive (https://archive.org/), même si elle est loin d’être parfaite.
Une autre solution intéressante peut consister à utiliser le site CachedView (https://cachedview.nl/).
L'intelligence artificielle révolutionne le paysage médiatique en introduisant de nouvelles fonctionnalités telles que des résumés automatisés, des podcasts générés par l'IA, la traduction de contenu et des chatbots.
Si ces outils peuvent aider les professionnels de l'information à gagner du temps et à améliorer l'expérience utilisateur, ils ne remplacent pas le jugement et l'expertise humains. Il est crucial pour ces professionnels de s'adapter à ces changements en développant de nouvelles compétences et en se concentrant sur des tâches à plus forte valeur ajoutée pour rester pertinents dans l'ère de l'IA.
L’IA fait progressivement son chemin dans les produits, sites et contenus proposés par les médias en France et à l’international. Si en 2023, il s’agissait surtout de tests et de pilotes, en 2024, le nombre d’initiatives notables ne cesse de croître.
Et ceci est dans la plupart des cas généré grâce à de l’IA générative. Numerama le propose par exemple dans sa version payante. D’autres utilisent la génération de résumé cette fois-ci pour les commentaires des articles : c’est par exemple ce que propose l’Équipe depuis peu.
Inoreader est un agrégateur de flux RSS connu des professionnels de la veille qui sont particulièrement concernés par l’idée de se constituer un « second cerveau ». Ce dernier est capable de mémoriser l’information importante tout en facilitant sa disponibilité pour l’utiliser quand cela s’avère nécessaire. Jusqu’où et comment cet outil de veille peut-il contribuer à cette démarche ? Voici une méthode pas à pas.
L’idée de se construire un « second cerveau » digital, sorte d’externalisation de sa mémoire informationnelle est ancienne. Elle a été popularisée récemment avec succès par Tiago Forte (voir à ce sujet les articles de NETSOURCES N° 165, juillet-août 2023). Sa démarche se divise en quatre étapes, réunies sous l’acronyme CODE : Capturer, Organiser, Distiller et Exprimer.
Lire aussi :
Que valent les outils de reconnaissance faciale pour la veille image ou l’investigation ?, BASES N°414, Mai 2023
La veille et la recherche d’information à l’ère des « fake news » et de la désinformation, NETSOURCES N°140, Mai 2019
Tirer parti du fact-checking et du journalisme d’investigation pour la veille et la recherche d’information, NETSOURCES N°140, Mai 2019
Parmi les promesses de l’IA concernant les métiers de l’information, le fact-checking figure en bonne place. À côté des outils payants, figurent nombre d’outils gratuits ou peu onéreux qui pourraient s’avérer utiles aux professionnels de l’information pour combattre la désinformation… Mais qu’en est-il dans la réalité ?
Les contenus générés par IA sont largement susceptibles de divulguer de fausses informations. Vérifier si une information provient d’une IA constitue donc désormais une piste pour évaluer le niveau de fiabilité d’une source. Mais le contenu généré par IA est parfois tellement proche d’une production humaine dans sa forme, que nul ne peut dans ce cas faire la différence, si ce n’est… une autre IA.
Les « détecteurs d’IA » se multiplient ainsi sur la toile. Et ils peuvent détecter le texte, l’image, la vidéo ou même la voix, grâce notamment à l’analyse linguistique et à l’apprentissage automatique, à la recherche de modèles - les patterns - et d’attributs spécifiques indiquant la paternité de l’IA, tels qu’une faible variation dans la longueur des phrases et le choix des mots pour les textes, par exemple.
Produit documentaire classique, la newsletter a su devenir incontournable pour proposer des services, mais aussi valoriser des activités et l’image du service documentaire. Nous avons expérimenté deux outils de création et diffusion de contenus, Flashissue et MailChimp.
La newsletter fait partie des produits documentaires « vitrine » du service. Elle permet de communiquer auprès des utilisateurs sur divers sujets : nouvelles acquisitions du fonds documentaire pour les bibliothécaires et documentalistes, actualités du service, voire un panorama de presse dans le respect du copyright, sans oublier la valorisation de son expertise et image.
Utiliser un outil dédié permet non seulement de gagner du temps sur la mise en page, mais aussi de professionnaliser la production de la newsletter.
Depuis les années 90, l’Open Access, porté par l’essor d’Internet et la philosophie de la science ouverte, a profondément transformé l’accès aux publications scientifiques en démocratisant la diffusion des connaissances.
Cette révolution a été marquée par la création d’archives ouvertes et de moteurs de recherche académiques, facilitant l’accès, libre ou payant, à des articles scientifiques. Elle s’est amplifiée avec la création de plateformes avancées, des initiatives pour l’accès aux citations et résumés, et le développement d’outils dopés à l’intelligence artificielle qui améliorent l’accès, l’analyse, et l’utilisation des données scientifiques.
Tout en gardant à l’esprit les défis notamment en matière de financement et de droits d’auteur, nous avons exploré l’apport de ces ressources ouvertes aux chercheurs, veilleurs et documentalistes et les nouvelles possibilités d’interaction avec les données.
Il faut revenir aux années 90 pour voir émerger le mouvement de la science ouverte, principalement sous la forme de l’« open access », porté par la volonté de donner un accès libre et gratuit aux publications scientifiques.
Cela va se matérialiser au départ sous la forme d’archives ouvertes. L’archive ouverte ArXiv avec ses preprints, une des pionnières en la matière, a été créée en 1991.
La deuxième phase de développement se situe ensuite dans les années 2000 avec l’essor de l’Internet grand public. L’archive ouverte française HAL est ainsi lancée en 2001.
Beaucoup plus récemment, le développement des plug-ins d’accès à la littérature scientifique a permis de repérer beaucoup plus simplement un article disponible en libre accès quelque part sur le Web, éventuellement sous forme de preprint ce qui n’était pas toujours évident.
Par ailleurs, quand on parle d’open access, il faut bien distinguer :
● D’une part l’accès gratuit au document primaire (l’original);
● D’autre part l’accès à une plateforme ou à un moteur permettant de rechercher puis de visualiser gratuitement uniquement des références d’articles et de proceedings et aussi parfois de chapitres de livres.
Notre habitude est de construire des stratégies complexes, mêlant synonymes, mots écrits de différentes façons (crosslink ou « cross link » par exemple), avec des opérateurs booléens, de proximité, des possibilités d’exclure des thématiques et, enfin, de multiples possibilités de combiner des étapes. Autant le dire tout de suite, ces stratégies ne sont pas transposables en l’état dans ces nouveaux outils.
Pour réaliser nos tests, nous avons donc dû utiliser des stratégies relativement simples qui puissent fonctionner sur tous les outils. Nous nous sommes limités aux références d’articles ou de conférences, incluant les preprints qui sont de plus en plus pris en compte. En revanche nous n’avons pas, dans la mesure du possible, pris en compte les chapitres d’ouvrages et les thèses. Les recherches se font dans le titre, ce qui n’est pas toujours simple, certains systèmes n’offrant pas cette option, obligeant à faire des comptages manuels. Nous avons envisagé de tester une recherche par affiliation mais cette fonctionnalité n'est pas disponible dans tous les moteurs.
Cette comparaison entre les serveurs et les outils gratuits ne pouvant se faire que sur des stratégies simples, on laisse de côté la puissance de recherche et le confort d’utilisation pour ne comparer que le nombre de réponses. Par ailleurs, il est évident que ces tests n’ont aucune valeur statistique et que l’on ne peut rien généraliser à partir de leurs résultats.
En France, pays champion européen de l’open data, on parle souvent des startups qui parviennent à exploiter des données accessibles en accès gratuit, pour en faire des services, avec parfois une option payante, à l’instar de Pappers ou Doctrine.
Depuis la démocratisation de l’IA amorcée il y a plus d’un an avec la mise à disposition au public de ChatGPT, suivie depuis par d’autres IA génératives et services afférents, comment le traitement des données ouvertes a-t-il évolué et surtout, est-il davantage accessible à un utilisateur sans formation technique particulière en amont ? Exploration, étape par étape, du traitement des données, de l’extraction à la publication.
Première étape : la collecte des données. Celle-ci peut se faire de deux façons : en téléchargeant un dataset ou en procédant à l’extraction des données sur un document. C’est dans ce second cas que les outils IA interviennent. S’offrent alors deux possibilités d’extraction de données :
● Avec un outil IA où l’on importe un fichier de données.
● Avec un tableur habituel, auquel on ajoute un module IA.
Les outils IA qui permettent d’importer gratuitement des documents à traiter ne prennent pas en charge les formats de bases de données, mais uniquement les formats textes et PDF. Dans ce cas, extraire les données d’un document pour les récupérer sous forme texte ou de tableau est un jeu d’enfant.
L’année 2023 a été marquée par la démocratisation des IA génératives. Cette technologie de pointe, qui a émergé sur le marché en 2020, était alors réservée à quelques experts qui payaient une API. Amorcée par la mise sur le marché de l’interface gratuite ChatGPT d’OpenAI, dont la plupart des produits sont devenus payants dans les mois qui ont suivi, cette démocratisation pourrait néanmoins perdurer grâce au développement de modèles de langage sous licence ouverte (ou « open source »).
Cette licence permet en effet d’exploiter un modèle de langage pré-entraîné à moindres frais (moins de 500 dollars dans la plupart des cas et avec des ressources de calcul modestes), ouvrant ainsi l’accès à un large éventail de chercheurs, de développeurs et d’organisations.
Il existe néanmoins quelques freins pour que le veilleur puisse en profiter.
● L’étude du fonctionnement du système et l’inspection de ses composants ;
● L’utilisation de son système à n’importe quelle fin, sans avoir à demander la permission ;
● La modification du système pour changer ses recommandations, prédictions ou décisions afin de l’adapter à ses besoins ;
● Le partage du système avec ou sans modifications, à quelque fin que ce soit.
● Nombre de titres de presse écrite (2021, Ministère de la Culture) : 3872
● Nombre de radios (2022, Arcom) : + 1000
● Nombre de chaînes de télévision (2022, Arcom) : 30 chaînes nationales
● Classement de médias numériques (2021, Mind Media, par nombre d’abonnés) : Le Monde, L’Équipe, Le Figaro, Ouest-France, Les Échos, Libération, Le Parisien.
Vivendi (V. Bolloré) : Groupe Canal + (Canal+, Canal+ Cinema, Planète+, Canal+ Sport), CNews, C8, CStar), Prisma Media (Géo, Femme actuelle, Gala), Lagardère News (JDD, Europe 1, Paris Match, RFM, Europe 2, Elle International), etc.
La connaissance des médias est une compétence essentielle du sourcing et de l’analyse dans la veille informationnelle. Pourtant, les professionnels de la veille et des médias ne se côtoient que trop rarement. Or, connaître l’univers - et la diversité - médiatique est justement ce qui permet de constituer un corpus complet, c’est-à-dire qui prend en compte l’ensemble des opinions autour d’une question. Visite guidée, à l’aube d’une prochaine disruption médiatique.
Le paysage médiatique français est constitué d’un grand nombre de titres traditionnels : plus de 5000 titres de presse écrite, radios et chaînes de télévision en 2021, selon les chiffres du ministère de la Culture et de l’Arcom.
Les médias locaux évoluent et cela impacte directement le sourcing et les pratiques de veille. Comment identifier et intégrer ces sources et verticales dans son sourcing ?
Il y a des veilles et des recherches d’information où la dimension locale est primordiale. L’information locale qu’il faut réussir à capter, c’est alors celle fournie par des journaux locaux, radios et TV locales, collectivités locales, mais aussi par des internautes désireux de partager des informations.
Ces différentes sources vont permettre d’obtenir des informations uniques et stratégiques notamment au niveau de la politique et de l’économie locale.
En France, quand on pense information locale, on pense avant tout à la PQR (presse quotidienne régionale) et à la PHR (presse hebdomadaire régionale) et par extension à un secteur touché de plein fouet par les difficultés rencontrées par la presse depuis des années.
On aurait vite fait d’extrapoler et de se dire que la veille locale en France risque d’être de plus en plus compliquée avec des sources et des informations locales moins nombreuses. Mais malgré ce sombre tableau, l’information locale n’a pas dit son dernier mot et se renforce même à différents niveaux et via différents canaux.
Dans cet article, nous explorons cette évolution et examinons ses répercussions sur la veille et la recherche d’informations.
Les médias des collectivités locales sont des sources essentielles d’informations régionales au rôle bien singulier. Et comme l’intégration de ces ressources dans une veille reste un véritable défi, comment identifier, surveiller et intégrer ces médias à son système de veille.
Parmi les sources utiles pour trouver de l’information locale en France, les journaux des collectivités (communes, communautés de communes, départements ou régions) sont en bonne position. Ces médias ont une place bien à part dans le paysage des médias locaux. Ils ont la forme d’un journal ou d’un magazine, mais sont généralement la voix de l’équipe politique en place, à l’exception des quelques pages réservées à l’opposition.
Une fois que l’on a bien conscience du positionnement et des biais associés à ce type de publication, il n’en reste pas moins qu’on peut y trouver de l’information locale intéressante et parfois exclusive pour sa veille, notamment sous les angles de la politique et de l’économie locale, des acteurs locaux et de l’événementiel local.
Pourtant, réussir à les utiliser pour sa veille est loin d’être simple, car il n’existe à ce jour aucun agrégateur, outil centralisateur pour ce type de contenus et on se retrouve avec une multitude de magazines plus ou moins accessibles aux modalités et formats différents.
Dans cet article, nous verrons comment identifier ces médias, comment les mettre sous surveillance ou effectuer des recherches sur leurs contenus et comment leur trouver une place adéquate dans son système de veille.
Après les moteurs de recherche et les médias sociaux, l’IA générative redistribue de nouveau les cartes pour les médias d’information. Avec des impacts considérables sur la production, la diffusion et la monétisation du contenu. Comment les médias s’adaptent-ils et comment cela affecte-t-il l’activité de veille ? Petit tour des initiatives en cours.
Dans ses recherches, au cours de ses analyses ou de la réalisation de ses livrables, le professionnel de la veille est de plus en plus exposé, de façon plus ou moins subtile, à l’information en provenance des IA génératives.
Au départ, les réponses créées par les chatbots d’IA générative comme ChatGPT, Bard et quelques autres, lui ont offert un autre mode d’accès à l’information : un accès direct aux réponses, sans cliquer sur les sources. Et cet usage devrait perdurer si l’on en croit la prochaine version de Google, SGE, qui valorise les réponses générées par IA au détriment des résultats de recherche présentés sous forme de liens.
Mais le contenu généré par IA commence aussi à concurrencer les médias sous une autre forme : des sites entièrement créés par IA s’invitent en effet dans les résultats des moteurs de recherche. Leur contenu, écrit pour correspondre aux règles actuelles de SEO, serait même mieux référencé que celui des médias. Récemment, le service américain de notation de l’actualité NewsGuard a identifié près de 600 sites Web (ils étaient 49 en mai dernier) qui fonctionnent avec peu ou pas d’intervention humaine. Et un site généré par l’IA produit jusqu’à 1200 articles par jour, contre 100 pour Le Monde ou 250 pour le New York Times ! Certains sont même financés par la publicité.
Les médias ont donc raison de craindre une baisse de leur propre trafic, qui provient à plus de 90 % de Google. Pour la veille, cela signifie davantage de difficultés à trouver certains contenus en provenance de médias pertinents, soudainement noyés dans des pseudos sites d’actualités générés par l’IA, mais difficiles à identifier, car ils reprennent les codes graphiques des sites d’actualités. Ce qui nécessite donc davantage de rigueur encore en phase de sourcing.
Dans la plupart des entreprises, la veille brevet est souvent négligée. La veille brevet peut pourtant être une source d’informations précieuse pour l’intelligence concurrentielle. Elle permet de suivre l’évolution des technologies, d’identifier les concurrents, et d’exploiter toutes les opportunités de marché en développant une vraie stratégie. Entretien avec Philippe Borne, Délégué Régional de l’INPI pour la Région Grand Est (1), et également rédacteur occasionnel pour notre lettre BASES à titre d’expert.
François Libmann : La veille brevet a un potentiel qui nous semble sous-évalué dans le domaine de l’intelligence concurrentielle. Comment l’interprétez vous ?
Philippe Borne : Beaucoup d’entreprises ont une vision très juridique du brevet, considéré uniquement comme un outil de protection, et donc avec des stratégies brevet très traditionnelles. Et du fait de cette vision, on retrouve la même attitude en ce qui concerne la veille brevet. Cette vision très juridique du brevet en France a pour conséquence qu’il n’est pas tenu compte de son potentiel en tant que source d’informations pour l’intelligence concurrentielle. Cela ne vient, en effet, pas à l’esprit qu’on puisse faire de la veille technologique sur ce type d’information.
(1) Philippe Borne s’exprime ici à titre personnel et les opinions qu’il expose n’engagent que lui-même.
Une veille peut s’effectuer sur un très grand nombre de sources telles que les publications dans différents types de presse (généraliste, scientifique…), le web et, en particulier Google ou des sites spécialisés, les réseaux sociaux, les visites de foires et salons, les conférences…
Dans un très grand nombre de cas, particulièrement pour la veille technologique et concurrentielle, il ne faut surtout pas négliger les différentes dimensions de la propriété industrielle : brevets, marques ainsi que dessins et modèles.
Tout d’abord, précisons le vocabulaire, car il y a un fort risque de confusion.
On rappellera en premier lieu qu’un brevet est une sorte de contrat entre l’État en général et un inventeur. En échange de l’exclusivité de l’usage d’une technologie sur une durée pouvant, en général, aller jusqu’à 20 ans, la description de cette technologie est rendue publiquement accessible, après une période de 18 mois, et constitue une information scientifique/technique.
Le titulaire du brevet peut exploiter lui-même sa technologie ou décider s’il autorise un/des tiers à l’exploiter et, dans ce cas, sous quelles conditions (vente du brevet, concession d’une licence).
On oublie trop souvent que les brevets ont un intérêt pour la veille concurrentielle. Et pourtant, en savoir un peu plus sur la politique brevet d’une entreprise est souvent très utile : par exemple, S’il s’agit de l’un de vos concurrents, cela peut être intéressant de connaître les techniques sur lesquelles il dispose d’une capacité d’interdiction, Si c’est un potentiel partenaire, cela peut être très pertinent avant de signer un accord de collaboration de connaître son niveau de sensibilité à la propriété industrielle. Et s’il s’agit d’un des fournisseurs auprès duquel vous vous approvisionnez en composants indispensables, s’il dispose de brevets sur ces composants, cela peut vouloir dire que vous ne pourrez vous fournir ailleurs. Et cette liste est loin d’être exhaustive.
Alors comment collecter des informations sur la politique brevet d’un concurrent, d’un partenaire, d’un fournisseur…. sans se ruiner ? Et comment entrer et comprendre les bases du monde des brevets, qui peut paraître inaccessible aux non-initiés ?
Toutes les données brevet sont publiques, accessibles dans des bases de données dont beaucoup sont en accès libre, comme Espacenet ou Patentscope. Dans cet article, nous allons vous montrer comment les retrouver.
Pour cela nous partirons d’un exemple concret en nous intéressant à la politique brevet de Volocopter, une startup allemande conceptrice d’un taxi volant à propulsion électrique qu’elle ambitionne de faire voler à l’occasion des Jeux olympiques de Paris, à l’été 2024.
Comme nous avons pu le voir dans l’article « Comment enrichir sa veille concurrentielle avec les brevets ? » de ce même numéro, l’information brevet a un rôle à jouer dans tous les types de veille mais l’inverse est aussi vrai. L’information non-brevet, comme l’information business, financière, presse, etc. a aussi un rôle à jouer pour enrichir et améliorer la veille brevet.
C’est ce que nous avons choisi d’explorer dans cet article en partant d’un exemple concret : analyser la politique brevet de Quobly, une start-up française dans le secteur de la recherche quantique qui a récemment fait parler d’elle avec l’entrée de BPI France dans son capital. Nous avons choisi de mener l’enquête uniquement avec des données en libre accès.
NB : Suivant de loin le sujet du quantique, nous savons que les acteurs américains et chinois du domaine y ont une politique brevet très active. Un rapport de Michel Kurek publié en 2020 a établi que sur la période 2010 - 2020 les acteurs chinois sont à l’origine de 5164 familles de brevets, les acteurs américains de 1990 familles, et les acteurs français d’un modeste chiffre de 126 familles.
Quoi de mieux pour analyser une politique brevet que de commencer par une recherche dans les brevets. Nous avons utilisé ici l’outil Espacenet (pour savoir comment rechercher sur Espacenet, nous vous invitons à lire l’article « Comment enrichir sa veille concurrentielle avec les brevets ? » dans ce même numéro).
La question de la surcharge informationnelle, créée par l’explosion de la sphère numérique, se pose de façon toujours plus aiguë pour les métiers de l’information.
Cette réalité est clairement mise en évidence dans le premier article de ce nouveau numéro de NETSOURCES, témoignage des défis auxquels sont confrontés veilleurs et documentalistes dans leur veille métier face à la vague IA (« IA et veille métier : les veilleurs dans l’expectative »).
Comment gérer les vagues d’informations potentiellement pertinentes pour nos métiers qui affluent à travers les multiples canaux numériques, newsletters, blogs, sites et apps de presse, réseaux sociaux pour ne citer qu'eux ?
Comment absorber - sans s’y noyer - ces flux qui deviennent peu à peu des éléments structurants de notre système d’information personnel ? Et surtout, comment les professionnels de l’information peuvent-ils les utiliser pour en faire une véritable force au service de leur veille métier, et par là même de leur métier ?
« Ça va trop vite, c’est difficile de trouver les bonnes sources, il y a trop d’outils et il y a trop d’aspects à maîtriser ». C’est avec ces mots que Franck Guigard, conseiller Performance et Management de l’information au sein de la CCI de la Drôme, résume la vague IA qui a déferlé sur sa veille métier.
Avec l’IA, ce sont non seulement des milliers de nouveaux outils à évaluer, trier, tester… mais c’est aussi toute une méthodologie à revoir :
● Faut-il ajouter des sources spécifiques à sa veille métier ?
● Quels sont les nouveaux mots-clés à surveiller ?
● Comment optimiser son temps de lecture ? Avec un résumé ? Sous quel format ?
● Peut-on la partager de façon plus attractive ? Dans une autre langue ? Sous quel format ?
Même si la veille métier est caractérisée par son objectif prospectif, il n’en demeure pas moins que la « vague IA » a pris de court la majorité des professionnels de l’information. Six mois après l’arrivée de ChatGPT dans le monde de l’information, comment les veilleurs surfent-ils sur la vague ?
Pour le savoir, nous avons interrogé plusieurs professionnels qui ont accepté de partager le fruit de leur réflexion.
Le professionnel de l’information se retrouve très touché par le développement exponentiel de l’IA et l’arrivée de ChatGPT au début de l’année 2023, notamment en termes de compétences à développer et en connaissances à acquérir.
Se former et s’informer sur l’IA n’a rien de facile tant il y a un déluge d’informations autour du thème de l’IA, tant l’environnement évolue et change très vite et tant il y a de nouveaux outils qui apparaissent chaque semaine.
Face à ce contexte inédit, le veilleur a 2 possibilités :
Dans cet article, nous vous proposons les sources que nous jugeons les plus utiles pour suivre les dernières grandes actualités de l’IA, réfléchir à son intégration aux pratiques de veille et de recherche et découvrir de nouveaux outils permettant de gagner en efficacité.
Dans le monde professionnel, chacun développe en continu les compétences utiles à l’exercice de son métier pour rester à la pointe et devenir d’une certaine façon « la meilleure version professionnelle de soi-même ».
L’une des manières d’y parvenir consiste à faire de la veille métier, c’est-à-dire à analyser les dernières tendances et dernières innovations techniques, s’approprier de nouvelles méthodologies et astuces ou encore être en phase avec les dernières évolutions du marché, ce qui dans le contexte actuel n’est pas une mince affaire.
Difficile en effet de trouver le temps de faire de la veille métier en plus de toutes ses tâches quotidiennes. D’autant que dans un contexte d’explosion numérique, la veille métier englobe de plus en plus de thématiques et génère de plus en plus d’informations à traiter et assimiler.
Et cela ne s’arrête pas là, car on ne fait pas de la veille pour la simple beauté de la veille : l’étape suivante consiste à capitaliser sur ces informations pour les transformer en connaissances, se créer un système de gestion de connaissances personnelles et utiliser tout cela de manière concrète.
On entre alors dans le champ du PKM (Personal Knowledge Management), une discipline qui existe depuis les années 90, mais qui bénéficie aujourd’hui de beaucoup plus de visibilité et qui se démocratise notamment suite à la sortie de l’ouvrage de Tiago Forte « Construire un second cerveau : une méthode complète pour organiser votre vie numérique et libérer votre potentiel créatif », un best-seller paru en 2022 (2023 pour la version française) et vendu à plus de 100 000 exemplaires à travers le monde.
Dans cet article, nous vous expliquons comment les professionnels de l’information peuvent mettre en place ou améliorer leur système de gestion de connaissances personnelles en tirant parti des enseignements de l’ouvrage « Construire un second cerveau » de Tiago Forte.
Comment créer un système de gestion des connaissances personnelles simple, efficace, flexible et pas trop chronophage capable de s’intégrer dans ses activités quotidiennes ?
La veille métier veille/infodoc et la gestion des connaissances qui s’en suit fait partie de mes pratiques depuis de nombreuses années. Cela me permet notamment de rester à jour, m’aide à développer mes compétences métier et me sert aussi à trouver des idées de sujets pour Bases et Netsources, bénéficier d’une base de matière brute pour rédiger des articles, préparer des formations ou des conférences et plus largement nourrir ma réflexion.
Ce système de veille/PKM (Personal Knowledge Management) a évolué avec les années aussi bien au niveau des contenus que des outils et technologies utilisés. Et si depuis quelques années, j’avais un système qui répondait bien à mes besoins et attentes, j’ai pu constater au cours des derniers mois qu’il arrivait un peu à bout de souffle et qu’il était temps de le faire évoluer. En cause : certains outils qui se dégradent, un volume d’informations toujours plus important à prendre en compte sans pour autant avoir plus de temps à y consacrer et des briques intermédiaires de ma réflexion qui continuent à se perdre ou qui prennent trop de temps à être retrouvées.
J’ai donc décidé de tester les méthodes préconisées par Tiago Forte dans son ouvrage « Construire un second cerveau » et par Sönke Ahrens dans « Comment prendre des notes intelligentes ». Retour sur mon expérience et sur les bénéfices apportés.
Cette rubrique « FICHE DE SYNTHESE » se propose d’aider à comprendre en un clin d’œil les informations clés de chaque numéro de NETSOURCES. Cette rubrique sera également déclinée en version pédagogique « pas à pas » et commentée dans nos fiches pédagogiques « Les essentiels de la veille». Bonne lecture !
Le déluge informationnel auquel nous faisons face quotidiennement accapare nos ressources mentales à tel point que nous craignons sans cesse d’oublier quelque chose. Et quand on n’oublie pas, on passe son temps à rechercher.
Le déploiement massif de ChatGPT et autres modèles d’IA entraîne une transformation significative des tâches, des processus et de la valeur ajoutée des professionnels de l’information, qui se trouvent en première ligne de cette révolution en cours.
L’intelligence artificielle s’invite dans le quotidien des professionnels de l’information. Lancée en tant que prototype le 30 novembre 2022, ChatGPT https://openai.com/blog/chatgpt s’est imposé comme l’application connaissant la croissance la plus rapide de tous les temps. Parallèlement, les enregistrements de noms de domaine en .ai ont augmenté de 156% au cours de la dernière année, contre seulement 27% pour les domaines en .com au cours de la même période, selon Domain Name Stat.
Selon l’OCDE, 14 % des emplois seront ainsi exposés à un enjeu majeur d’automatisation, tandis que 32 % des emplois pourraient être transformés substantiellement. Qu’en est-il pour les professionnels de la veille ?
Face à cette ascension fulgurante, il reste difficile d’appréhender son nouvel environnement. Nous nous proposons donc de partager les bases de fonctionnement d’un système IA utiles aux métiers de la veille et de la recherche d’information et d’esquisser, à chaque étape du processus de veille, les premiers bouleversements expérimentés.
Le professionnel de la veille, parce qu’il manipule l’information qui transite entre l’intelligence humaine et l’intelligence artificielle, doit ainsi apprendre de nouveaux modèles de langage et d’apprentissage : ceux utilisés par l’IA.
Lire aussi :
Comment l’IA enrichit les livrables de veille multilingue ? (04/2023)
Revue des moteurs de recherche à l’heure de ChatGPT (04/2023)
Quels outils utiliser pour bénéficier de ChatGPT ? (01/2023)
Détecter un contenu écrit par ChatGPT : IA face à l’IA (gratuit - 02/2023)
Notre sélection d’annuaires d'outils IA (article en accès libre)
L’un des thèmes récurrents autour de ChatGPT et autres IA génératives concerne la question des prompts - c’est-à-dire les requêtes utilisées pour communiquer avec l’IA - avec l’idée que la qualité des réponses et contenus produits par ces outils dépendraient de la qualité des prompts.
A priori rien d’insurmontable pour les professionnels de l’information qui ont toujours appris à interroger et manipuler les différentes générations d’outils pertinents pour l’exercice de leur métier.
Toutefois, cette fois-ci, cette compétence vaudrait de l’or à en croire la société Anthropic (créateur de Claude, l’un des concurrents de ChatGPT) qui propose un poste de « Prompt Engineer and Librarian » avec un salaire débutant à 300 000$ (Source Time et Jobs Lever), bien loin des standards habituels.
Le professionnel de l’information va-t-il enfin être reconnu à sa juste valeur ? Rien n’est moins sûr… Mais toujours est-il qu’aujourd’hui, on ne peut pas faire l’impasse sur l’IA dans l’exercice de son métier.
La compréhension et la maîtrise des prompts est donc un axe-clé qu’il va falloir comprendre et maîtriser.
C’est ce que nous aborderons dans cet article en démêlant le vrai du faux pour faire la différence entre ce qui est vraiment utile pour communiquer avec l’IA et ce qui relève d’arguments purement commerciaux et marketing puis en proposant des éléments de méthodes pour tirer parti au mieux des outils à base d’IA à partir de nos propres tests et de discussions avec plusieurs professionnels qui utilisent l’IA dans leurs pratiques.
Lire aussi :
Comment l’IA enrichit les livrables de veille multilingue ? (04/2023)
Revue des moteurs de recherche à l’heure de ChatGPT (04/2023)
Quels outils utiliser pour bénéficier de ChatGPT ? (01/2023)
Détecter un contenu écrit par ChatGPT : IA face à l’IA (gratuit - 02/2023)
Notre sélection d’annuaires d'outils IA (article en accès libre)
L’IA générative a un rôle à jouer à certaines étapes de la veille et de la recherche d’information et notamment lors de la phase d’analyse notamment pour tout ce qui a trait aux résumés de documents, de pages Web ou encore contenus audio et vidéo et à la possibilité d’interroger et d’interagir avec ces documents.
Sur le papier, tous ces outils pourraient permettre de gagner un temps considérable quand il s’agit de passer au travers de très nombreux et très longs documents. Mais dans la pratique, ces outils sont-ils aussi miraculeux qu’ils le laissent paraître, quels sont leurs avantages mais aussi leurs limites, sont-ils fiables ou bien inventent-ils du contenu, comment les intégrer intelligemment à ses pratiques et comment choisir le bon outil parmi la masse d’outils disponibles.
Dans cet article, nous avons donc exploré l’écosystème de tous ces nouveaux outils de résumés et d’interrogation de contenus textuels car ils sont très nombreux.
Nous en avons ainsi identifié et testé plus de 40, tous apparus au cours de l’année 2023. Seuls quelques-uns sortent véritablement du lot. C’est à eux que nous nous intéresserons dans cet article.
Lire aussi :
Comment l’IA enrichit les livrables de veille multilingue ? (04/2023)
Notre sélection d’annuaires d'outils IA (article en accès libre)
Les outils de Business Intelligence pour créer des analyses visuelles dans un livrable de veille
Kagi Search intègre le résumé automatique aux résultats de recherche
Les résumés automatiques de nouvelle génération au service de la veille