L’IA étant devenue incontournable, la plupart des serveurs et agrégateurs de presse développent de nouveaux outils ou de nouvelles interfaces intégrant ces développements technologiques.
Les équipes de Questel sont persuadées que l’IA va profondément bouleverser les opérations liées à la propriété intellectuelle, aussi bien pour la recherche, que la visualisation des résultats puis de leur analyse, le classement des résultats et plus généralement pour optimiser les workflows complexes de ce domaine.
Nous avons déjà présenté dans ces colonnes SCOPUS AI et Web of Science Research Assistant (BASES, Nos 425 et 428). Nous explorons aujourd’hui les améliorations apportées par Questel à Orbit Intelligence par l’utilisation de ChatGPT tant pour la recherche que pour la visualisation des réponses.
Nous avions décrit dans la rubrique IA du dernier numéro de BASES comment utiliser la nouvelle fonctionnalité « styles rédactionnels » de Claude, dont la promesse est de produire un texte avec le « bon style de rédaction ».
Cette fonctionnalité est intéressante en soi, car elle nous emmène déjà au-delà de la « simple » génération de contenus, vers la création de textes toujours plus personnalisables, de qualité comparable à ceux que l’on produit manuellement et même, pourrait-on dire, « humanisés ».
Claude fait d’une certaine façon « coup double » avec cette fonctionnalité des styles personnalisés : elle concerne à la fois la rédaction d’un texte en imitant un auteur humain donné et l’adaptation du message au type de public cible.
Le dernier trimestre 2024 marque un tournant décisif dans l’évolution de nos métiers. L’émergence d’outils autonomes au potentiel disruptif met au défi de l’adaptation les pratiques éprouvées des professionnels de l’information et leur rôle d’intermédiation.
Ce numéro de NETSOURCES explore cette nouvelle étape à travers trois regards complémentaires.
Véronique Mesguich analyse comment OpenAI ne se contente pas de concurrencer Google avec SearchGPT, mais revisite l’expérience de recherche d’information (« SearchGPT vs Google AI vs Copilot : la bataille des géants pour réinventer la recherche web »).
Cette génération d’outils, avec sa puissance de synthèse et la génération contextuelle de contenus, remet en question notre rapport même aux sources. En proposant des synthèses dont la traçabilité échappe souvent à notre contrôle, elle fragilise davantage la notion de référence aux sources, pilier de la recherche professionnelle déjà ébranlé par l’écosystème Internet. C’est la fiabilité même du travail informationnel qui est en jeu, au-delà des impacts sur le modèle économique des moteurs traditionnels et du système de référencement commercial.
Le décryptage que fait Ulysse Rajim sur l’avènement des agents IA révèle une autre dimension de cette transformation (« Repenser la veille à l’ère des agents IA »). Ces systèmes semi-autonomes, capables de planifier et d’exécuter des séquences d’actions complexes, préfigurent l’avenir de nos outils professionnels. Leur capacité à combiner planification et exécution, même à un niveau d’autonomie encore modéré, annonce une transformation de nos méthodes de travail.
Enfin, les retours d’expérience du Forum de l’IES, analysés par Corinne Dupin, apportent un éclairage précieux sur ces évolutions. Les enseignements qui en émergent - de la contextualisation des demandes au contrôle continu des résultats — dessinent les contours d’une utilisation raisonnée de l’IAG et d’une nouvelle maturité dans notre approche des IAG (« Quand la vitesse et la puissance de calcul des IAG dépassent l’humain et invitent à réévaluer les pratiques de veille et d’intelligence économique »).
Ces trois analyses convergent vers un constat commun : l’accélération technologique nous ramène paradoxalement aux fondamentaux de nos métiers. Le sens critique, la rigueur méthodologique et l’intelligence collective deviennent plus essentiels que jamais.
Annoncé l’été dernier par OpenAI sous forme de prototype, le moteur de recherche SearchGPT a été lancé en novembre pour les utilisateurs de la version premium et est depuis le 17 décembre accessible gratuitement à tous.
Au-delà d’un moteur de recherche classique, SearchGPT allie les capacités de génération de texte et de recherche contextuelle du modèle de langage d’OpenAI pour offrir une nouvelle expérience de la recherche d’informations.
OpenAI renforce ainsi sa concurrence directe non seulement avec des services de recherche basés sur l’IA comme Perplexity ou You.com, mais aussi avec les géants du Search en ligne que sont les moteurs Google ou Microsoft Bing Copilot. Doit-on en attendre une transformation radicale du paysage des outils de recherche ? Ou bien s’agit-il d’une tentative de la part d’OpenAI destinée à capter une part du marché lucratif de la recherche web, en « disruptant » le modèle économique ?
2024 marque un tournant dans l’histoire de l’intelligence artificielle : après les chatbots et les copilotes, une nouvelle génération d’outils fait son apparition - les agents IA. De Microsoft à Salesforce, en passant par Google et Anthropic, les géants de la tech investissent massivement dans ces systèmes capables de planifier et d’exécuter des séquences d’actions complexes. Dans cet article, nous explorerons ce nouveau développement dans le paysage de l’IA et ses impacts sur le métier de la veille.
En 2023, après la sortie de ChatGPT quelques mois plus tôt, les chatbots s’imposaient comme la technologie phare de l’année. De Bing Chat à Claude, en passant par Gemini, les agents conversationnels étaient au centre de l’attention.
En 2024, ce sont les assistants IA (aussi appelés « copilotes ») qui font leur apparition, en s’inspirant de la fonctionnalité Github Copilot, elle-même mise à disposition du grand public en juin 2022. Plusieurs copilotes sont alors annoncés : Microsoft 365 Copilot, EinsteinGPT (Salesforce), Joule (SAP) ou encore Gemini (Google), pour en citer quelques-uns.
L’IAG s’invite à l’IES (1) : plusieurs cas d’usage, quelques métriques et surtout une forte incitation à réévaluer les pratiques des acteurs de la veille et de l’IE à l’aune d’un outil qui va plus vite qu’eux à une échelle qui les dépasse.
Si l’intelligence artificielle truste les conversations, les salons et autres événements depuis l’avènement des IA génératives (IAG), le forum de l’IES ne fait pas exception et s’est largement fait l’écho des questionnements actuels sur leur intégration aux pratiques professionnelles. Pas moins de trois sessions plénières et une table ronde lui étaient consacrées.
(1) L’IES est un événement organisé tous les deux ans par la Commission Intelligence Stratégique et Prospective de 3 AF (Association Aéronautique et Astronautique de France), qui réunit des acteurs de la veille et de l’intelligence économique de différents horizons (et pas seulement de l’industrie aéronautique). La dernière édition s’est tenue les 20 et 21 novembre dernier à Strasbourg.
Maître Thibault du Manoir de Juaye, avocat à la Cour de Paris, est un spécialiste reconnu en intelligence économique et en droit de la sécurité privée. Il a fondé son cabinet en 1995, intervenant régulièrement sur des dossiers liés à l’intelligence économique, notamment en matière de propriété intellectuelle.
Auteur de plusieurs ouvrages sur le sujet, il a également été rédacteur en chef du magazine « Regards sur l’IE ».
L’intelligence artificielle amplifie les problématiques juridiques déjà connues pour la veille et l’IE, notamment en raison de sa faculté à faciliter les recherches et à générer automatiquement des contenus de tout type.
Même si elle n’en est sans doute qu’à ses débuts, il existe déjà des tentatives pour encadrer juridiquement l’intelligence artificielle (IA).
Des juristes imaginatifs (et pour moi loufoques) vont même jusqu’à soutenir qu’il faudrait donner la personnalité juridique aux systèmes d’IA, un peu comme les sociétés ont la personnalité morale. Mais il ne s’agit pour le moment que de spéculations ludiques et récréatives, sans grand intérêt, sauf pour quêter une exposition médiatique à moindres frais.
Il faut donc s’en tenir au droit positif.
L’intelligence artificielle est désormais encadrée par un règlement européen en date du 12 juillet 2024, texte qui sera complété par des milliers de pages d’application.
Devant l’avalanche d’annonces sur les innovations et nouveautés en IA, cette rubrique met en avant celles que nous considérons comme utiles pour les professionnels de l’information.
N’hésitez pas à nous partager vos questions ou sujets d’intérêt liés à l’IA en nous écrivant à l’adresse Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser..
En préliminaire, il nous paraît important de clarifier notre position sur la difficulté à recommander de s’abonner à tel ou tel modèle d’IA pour accéder à certaines fonctionnalités (même si nous pensons que l’abonnement à ChatGPT est un must).
La dynamique entre les fonctionnalités gratuites et payantes dans les modèles d’IA évolue constamment, en fonction des stratégies commerciales, des retours utilisateurs et des innovations technologiques. Une fonctionnalité peut être d’abord réservée aux abonnés puis devenir gratuite, ou inversement, être monétisée après avoir gagné en popularité.
Anthropic sort une nouvelle version de son modèle Claude 3.5 Sonnet avec une innovation majeure dans le traitement documentaire, qui enrichit l’analyse les documents complexes en extrayant et analysant les éléments visuels contenus quand il existent.
Après neuf mois de tests auprès de la communauté des utilisateurs de Web of Science, Clarivate vient d’annoncer le lancement de son assistant de recherche dopé à l’IA pour la recherche sur le contenu de Web of Science Core qui propose 92 millions de références dans le domaine scientifique depuis le début du 20° siècle.
Nous avons testé ce nouvel outil qui illustre l’investissement des serveurs et agrégateurs dans des possibilités de recherche nouvelles sur leur fonds grâce à l’intelligence artificielle.
L’écran d’accueil est commun avec la recherche classique sur le Web of Science. L’accès se fait par un clic sur « Search assistant » qui donne accès à la nouvelle interface. On se voit alors proposer quatre options qui correspondent à autant de problématiques.
La première baptisée « Start a new search by asking a question » permet de lancer une question spécifique en langage naturel. « C’est une méthode intuitive pour commencer une exploration, particulièrement utile pour les chercheurs qui ne sont pas familiers avec les techniques de recherche avancées. »
La seconde, « Understand a topic » a pour objectif d’offrir rapidement une vue d’ensemble structurée d’un sujet spécifique. C’est un excellent point de départ pour se familiariser rapidement avec un nouveau domaine de recherche ».
DERWENT qui réécrit les titres et les abstracts de brevets depuis des dizaines d’années affirme que sa pratique est plus performante qu’une utilisation d’une IA.
La banque de données DWPI (Derwent World Patents Index) commercialisée aujourd’hui par Clarivate a été créée il y a plus de 60 ans et a une grande notoriété auprès des spécialistes de la recherche d’information brevet.
DWPI a longtemps été la principale source utilisée par les professionnels.
Sa valeur ajoutée tient en plusieurs points :
On pressent que la « révolution IA générative » va à terme jouer un rôle central dans la redéfinition des pratiques de veille stratégique et technologique. Dans ce nouveau Netsources, nous vous emmenons au cœur de cette métamorphose naissante.
Deux des experts reconnus de la veille en France, Mathieu Andro et Corinne Dupin, ont mené une nouvelle étude du marché des plateformes de veille. Nous sommes heureux d’ouvrir ce numéro avec leur analyse approfondie de l’enquête 2024. Leur étude révèle l’intégration croissante de l’IA dans ces systèmes, qui laisse présager une refonte en profondeur du modèle traditionnel du cycle de la veille.
La révolution de l’IA s’étend également au champ cognitif, démocratisant l’accès à la connaissance. Par exemple, dans le domaine scientifique, Aurélie Vathonne démontre comment de nouveaux outils dopés à l’IA permettent désormais à des veilleurs généralistes de s’immerger dans des domaines complexes, brisant ainsi les barrières d’entrée au savoir scientifique (« Comment se saisir avec pertinence de l’information scientifique lorsqu’on n’est pas scientifique ? »).
Par ailleurs, l’article « Perplexity, le couteau suisse de la découverte d’informations et de la curiosité » analyse l’évolution de ce moteur de réponses hybride, combinant les forces d’un moteur de recherche traditionnel et d’un agent conversationnel. Perplexity incarne cette nouvelle génération d’outils visant à réduire l’incertitude et à fournir des réponses claires, tout en suscitant des débats éthiques sur l’utilisation des sources et la propriété intellectuelle.
Enfin, nous aborderons une question rarement traitée, mais présente dans tous les esprits : «Faut-il optimiser ses prompts en fonction de chaque modèle d’IA ?». Cette interrogation souligne notre prise de conscience des enjeux liés à la personnalisation de nos interactions avec les modèles d’IA, afin d’en tirer le meilleur parti. Nous verrons également comment l’IA offre au veilleur/analyste généraliste de nouvelles perspectives en termes d’immersion dans des champs de connaissance qui lui étaient jusque-là inaccessibles.
Rappelons quand même que l’IA générative, même nourrie des meilleurs prompts et d’investissement personnel, reste un outil qui amplifie l’expertise humaine plutôt qu’un substitut à la réflexion critique et à l’expertise métier.
AskAdis est une interface innovante utilisant l’intelligence artificielle pour fournir des synthèses complètes sur le développement de médicaments. Elle offre des informations validées sur les essais cliniques et les propriétés des médicaments, avec une présentation moderne et intuitive.
Adis est une société spécialisée dans la fourniture de services d’informations et de solutions aux professionnels de la santé et de l’industrie pharmaceutique. Fondée en 1969, Adis fait aujourd’hui partie du groupe Springer Nature.
Elle édite une trentaine de publications spécialisées, offre différents services et propose plusieurs banques de données essentiellement consacrées aux étapes de développement de médicaments.
Pendant assez longtemps, la veille business et la veille scientifique et technique ont constitué des champs tout à fait distincts avec des compétences et ressources spécialisées bien définies pour les piloter, ainsi que des objectifs, des méthodes, des outils et des sources propres.
Puis la mise en place de plus en plus courante de veilles dites « innovation » a commencé à brouiller les frontières, mêlant informations concurrentielles et technologiques, et l’on constate que les spécialistes de la veille au sein des départements marketing et R&D de grands groupes travaillent étroitement ensemble pour fournir leurs analyses stratégiques au top management.
La veille IST a longtemps nécessité un véritable background scientifique et technique dans un domaine spécifique, quel qu’il soit (matériaux, énergie, agro-alimentaire, etc.), pour pouvoir exercer ce rôle efficacement. Pourtant, comprendre non seulement la pertinence, mais aussi l’apport de certains travaux scientifiques ou d’articles techniques n’est plus mission impossible pour celui qui n’est pas du sérail, et ce grâce au développement récent des outils d’intelligence artificielle qui changent la donne.
Bien sûr, un veilleur « généraliste » ne pourra jamais se hisser au niveau d'expertise d’un ingénieur spécialiste, mais l’IA va lui permettre en revanche d’élever sa compréhension des documents sans avoir de bagage spécifique et sans connaître tout le vocabulaire scientifique et technique spécialisé.
La concurrence féroce entre les modèles d’IA n’a pas ralenti cet été, avec la poursuite des annonces de nouvelles versions commerciales et open source, et progrès en matière de traitement vocal, visuel et textuel. Parmi ces innovations, nous avons identifié certaines fonctionnalités et nouveautés dont certaines ont un impact sur nos pratiques de l’IA générative.
Anthropic vient d’annoncer la disponibilité d’une nouvelle fonctionnalité sur toutes les versions du modèle, tant payantes que gratuites (bien que beaucoup plus limitées).
Cette fonctionnalité permet de générer et d’afficher de façon interactive les réponses du chatbot dans une fenêtre distincte de la conversation principale. Il est important de noter que le terme « artefacts », sans définition très précise, est également utilisé pour désigner le contenu produit par le modèle (textes, visualisations, interfaces, etc.).
À l’arrivée de ChatGPT, nous avons vu fleurir sur le web et les réseaux sociaux une quantité de conseils sur l’art subtil de la formulation des prompts. On a vu également émerger une multitude d’outils et de bibliothèques de prompts prêts à l’emploi, souvent payants, adaptés à divers secteurs et types de questions (cf. FOCUS IA : maîtriser et gérer ses prompts - BASES no421- Janvier 2024). Cette révolution IA a même donné naissance à un nouveau métier : le prompt engineering, qui semble se professionnaliser de plus en plus.
Rappelons au passage qu’un prompt (ensemble d’instructions ou encore d’invites) est adressé à un modèle de langage (LLM) via une interface utilisateur, qui peut prendre la forme d’un chatbot (interface conversationnelle) pour générer des réponses ou des contenus spécifiques. Par exemple, Open AI a développé le modèle GPT (avec ses déjà nombreuses versions) et a mis à disposition des utilisateurs le chatbot ChatGPT.
Ces conseils et outils se concentrent principalement autour de ChatGPT, ce qui ne surprend pas au regard de la large et rapide démocratisation de l’IA générative qu’OpenAI a su orchestrer : il était urgent de fournir un « mode d’emploi » pour utiliser efficacement ce chatbot.
Cependant, une question fondamentale demeure : peut-on utiliser les mêmes prompts pour tous les modèles d’IA établis sur le marché (outre GPT : Gemini, Claude, Mistral, Llama principalement) ? Par exemple, Claude répond-il de manière aussi satisfaisante à un prompt conçu pour ChatGPT ?
Perplexity se définit comme un «moteur de réponses» innovant, combinant les fonctionnalités d’un moteur de recherche traditionnel avec celles d’un agent conversationnel alimenté par l’IA : une sorte d’hybride entre ChatGPT et Google Search.
Son ambition affichée est de concurrencer Google sur le marché de la recherche en ligne, en proposant une approche radicalement différente : plutôt que de fournir une simple liste de liens, Perplexity génère des réponses textuelles rédigées en s’appuyant sur des sources d’information récentes, variées et toujours indiquées en référence par l’outil.
La start-up californienne fondée en 2022 par un ancien d’Open AI, a rapidement attiré l’attention des investisseurs, atteignant une valorisation d’un milliard de dollars en 2024.
Le nom «Perplexity AI» fait référence à la notion de perplexité en théorie de l’information, qui mesure l’incertitude, mais il est utilisé ici de manière inverse. L’objectif de Perplexity AI est de réduire l’incertitude (ou la perplexité) des utilisateurs en fournissant des réponses claires et précises, transformant ainsi la haute perplexité en basse perplexité dans le domaine de la recherche d’information.
Pour fonctionner, Perplexity extrait les données d’internet au moment où la question lui est posée, de sorte que les réponses sont réputées être toujours à jour. Il s’appuie ensuite sur plusieurs modèles de langage, le sien propre mais aussi celui d’OpenAI, le modèle open source Llama de Meta ou encore Claude 3, pour produire ses réponses. De plus, il propose des questions connexes à la requête initiale (rappelant un peu les requêtes suggérées de Google), permettant ainsi d’affiner progressivement la recherche.
L’accès peut se faire sans obligation de créer un compte, via le site web de l’application ou une application mobile, avec fonction de recherche vocale disponible sur iPhone. Il existe enfin une extension Chrome qui permet d’y accéder à partir de n’importe quelle page web, de lui faire résumer la page ou répondre à des questions sur ce qu’elle contient.
La société allemande DEEPL, un des acteurs majeurs de la traduction automatique, annonce qu’il va surpasser ses concurrents que sont Google Translate et ChatGPT.
Cela devrait se faire grâce à son dernier modèle de langage LLM.
En effet, ce nouvel LLM ne s’appuie pas, pour s’entrainer, sur des données d’Internet en général, mais sur son propre jeu de données propriétaires sélectionnées et adaptées à la création de contenu et à la traduction linguistique.
Il prétend donc qu’il sera meilleur que Google Translate qui rencontre des problèmes de traduction littérale ou incorrecte.
Quant à ChatGPT, son offre de traduction automatique serait secondaire par rapport à l’ensemble de son offre alors que "DeepL est très spécialisé, ce qui est particulièrement utile dans des domaines exigeant une haute précision ». Bref, il sera meilleur là aussi.
Ces améliorations devraient faire gagner en temps et en efficacité, car il y aura moins de temps consacré à la vérification et à la correction.
Loin de vouloir concurrencer les traducteurs professionnels il se positionne comme leur « allié indispensable », une affirmation qui peut laisser songeur...
Nous signalons ici un post très intéressant sur le site de CLARIVATE : “'Sleeping beauties’: Yesterday’s findings fuel today’s research breakthroughs”
Valentin Bogorov, l’auteur, explique en se basant sur de nombreux exemples que l’art antérieur récent ou les connaissances les plus récentes ne sont pas nécessairement les plus intéressantes à prendre en compte dans la recherche.
Les exemples qu’il cite proviennent de domaines très différents. Il illustre son propos avec l’évolution des citations d’un article publié en 1948 intitulé “An Approach Toward a Rational Classification of Climate” écrit par Charles W. Thornthwaite, un éminent géographe et climatologue américain qui a peu retenu l’attention jusqu’à l’année 2 000. À aujourd’hui, il a été cité plus de 5 900 fois par des chercheurs de 143 pays, sachant que plus de 90 % des citations sont postérieures à l’an 2000.
CLARIVATE est l’éditeur du Journal Citation Reports. Il produit le facteur d’impact (Impact Factor) qui est calculé par une formule qui prend en compte le nombre de citations des articles d’une publication.
Bien qu’il soit controversé, le facteur d’impact est l’indicateur de la notoriété d’une publication le plus utilisé actuellement. Il contribue, en particulier, à évaluer la qualité du travail des chercheurs.
Pour l’édition 2024, 17 publications ont perdu leur facteur d’impact à cause d’une suspicion de manipulation des citations. Il leur est reproché, en particulier, d’avoir abusé des autocitations.
Grâce à La licence Creative Commons CCBY 4.0, l’OCDE adopte un modèle libre d’accès. Le site offre un catalogue de près de 30 000 éléments consultables, téléchargeables et partageables.
Nouvelle étape pour la longue vie de la banque de données Delphes qui était commercialisée ces dernières années par IndexPresse.
Businesscoot, spécialiste français des études sectorielles rachète Indexpresse. Cela conduira à l’offre SectorGPT qui grâce aux informations des études ajoutées à celles de la banque de données Delphes proposera des recherches sectorielles en utilisant l’IA.
Les réponses sont annoncées comme fiables et traçables.
L'IA générative est un facteur potentiel de redéfinition du paysage médiatique, transformant en profondeur la manière dont les contenus sont créés et distribués. Elle menace ainsi les modèles économiques traditionnels qui reposent fortement sur les droits d'auteur pour générer des revenus.
Lire aussi : Le droit d’auteur face à l’IA générative : Interview de Philippe Masseron (gf2i) sur les enjeux juridiques et économiques des métiers de l’information et de la donnée.
Comme nous l’avons décrit dans notre récent article de BASES : « ResearchGate développe ses liens avec les éditeurs », ce réseau social continue à développer son activité d’agrégateur.
Il a ainsi chargé récemment :
Dans ce numéro, nous continuons à explorer les défis que représentent pour les professionnels de l’information l’entrée dans l’ère de l’intelligence artificielle, tout en examinant les nouvelles méthodologies, les retours d’expérience et les tendances actuelles qui façonnent nos métiers.
L’émergence des IA génératives, illustrée par le succès fulgurant de ChatGPT, marque un tournant dans nos pratiques. Véronique Mesguich, dans la nouvelle édition de son ouvrage «Rechercher l’information stratégique sur le web», introduit l’impact des IA génératives sur la veille stratégique et la recherche d’information. Si ces outils offrent de nouvelles perspectives d’analyse et de traitement des données, ils nécessitent une approche critique pour éviter les écueils d’informations inexactes ou biaisées.
Le passage d’une «culture de stock» à une «culture de flux» reste un défi majeur, comme le souligne notre article « Adopter une logique de flux... plus facile à dire qu’à faire ». Cette transition n’est pas simplement une tendance, mais une nécessité pour rester pertinents et efficaces. Il s’agit de transformer notre rapport à l’information, en favorisant la capture et l’exploitation en temps réel des données plutôt que leur simple accumulation.
Dans «Bonnes pratiques pour systématiser la surveillance de vos concurrents», nous découvrons des méthodes structurées pour maintenir une veille efficace sans être submergés par l’information. La clé réside dans la sélection rigoureuse des sources et l’automatisation des processus, permettant de se concentrer sur l’analyse et la prise de décision.
L’article «Le jour où j’ai voulu mettre en place une veille collaborative» offre un retour d’expérience précieux sur les défis et les succès de la veille mutualisée. Cette aventure, menée au sein d’une PME, démontre que la mutualisation des efforts peut transformer les pratiques individuelles en intelligence collective, malgré des obstacles organisationnels et humains à ne pas sous-estimer.
Rester agile et professionnel, ce sont deux des nombreux mots clefs qui résument les défis actuels de nos métiers. Face aux transformations, nous sommes invités à nous adapter constamment, à nous former sans relâche et à réinventer sans cesse nos rôles et pratiques au sein des organisations.
À l’aube d’une nouvelle ère de l’information bouleversée par l’intelligence artificielle, Véronique Mesguich nous offre une troisième édition actualisée et enrichie de son ouvrage « Rechercher l’information stratégique sur le web - Sourcing, veille et analyse à l’heure de l’IA », publié chez De Boeck Supérieur.
Cette troisième édition à jour explore l’univers des IA génératives et leur impact sur la recherche d’informations et la veille. On y découvre (après une préface d’Anne Marie Libmann), comment les IA transforment les pratiques de la recherche web, ainsi que des exemples concrets d’utilisation de l’IA pour l’extraction et l’analyse d’informations stratégiques.
L’ouvrage aborde également d’autres méthodes de recherche et de veille, basées sur la maitrise des sources et l’OSINT.
Deux rapports influents sur les médias, tout juste publiés, ont retenu notre attention dans la perspective des enjeux liés au droit d’auteur et à l’utilisation des sources, notre ressource primaire.
Le rapport intitulé « Un journalisme de confiance à l’ère de l’IA générative » publié par l’European Broadcasting Union, basé sur des entretiens avec 40 personnalités influentes des médias et des universitaires, souligne que l’utilisation d’IA pour réutiliser des contenus protégés sans mentionner explicitement les sources risque de nuire à la création originale et menace la survie du secteur créatif.
Nous avons le plaisir d’accueillir dans nos colonnes Marydee Ojala, professionnelle de l’information américaine très connue. Elle est rédactrice en chef de la revue ONLINE SEARCHER.
Nous avons adapté pour BASES l’article de Marydee, précédemment publié dans sa version originale en anglais dans la section ONLINE SEARCHER du numéro 5, volume 44, paru en juin 2024 de la revue COMPUTERS IN LIBRARIES sous le titre « The perils and power of NOT in prompting Chatbots » dans la rubrique « Voices of the searchers »
La plupart des professionnels de l’information connaissent bien les commandes booléennes de base : AND, OR et NOT. Elles fonctionnent parfaitement pour la recherche dans les bases de données traditionnelles. Lorsque nous enseignons les techniques de recherche, nous nous appuyons sur des exemples et des diagrammes de Venn pour démontrer la puissance de la recherche booléenne. J’ai toujours pensé que nous devrions souligner les dangers de la commande NOT, en particulier dans les ressources en texte intégral proposant des documents volumineux.
Le battage médiatique autour de l’IA générative a quelque peu éclipsé les avancées tout aussi décisives de l’IA prédictive dans les domaines de la recherche et de la veille d’informations. Pourtant, la première n’aurait pas rencontré un accueil aussi favorable dans les entreprises sans l’expérience de la seconde qui opère déjà, depuis des années, une transformation en profondeur de nos pratiques professionnelles.
Depuis qu’il est devenu possible pour tous d’interroger des intelligences artificielles dans un langage naturel, on parle beaucoup de l’impact de l’IA générative pour les métiers de l’information (voir notre article « Search: quand les moteurs “recherchent pour vous” », BASES n° 425, mai 2024).
Mais cette dernière n’est pas arrivée en terrain vierge. Il est donc temps de remettre en lumière l’IA prédictive pour replacer l’apport des modèles de langage dans une perspective plus juste au sein des métiers info-documentaires.
Philippe Masseron du gf2i (Groupement français de l’industrie de l’information) nous éclaire sur les enjeux cruciaux du droit d’auteur à l’ère de l’IA générative. Entre risques de prédation massive des contenus et opportunités d’accès et d’innovation portées par l’IA, les acteurs de la création et de l’information doivent se mobiliser pour défendre leurs intérêts et repenser leurs modèles de valorisation.
Le rôle d’instances comme le gf2i sera clé pour peser dans les débats législatifs en cours et créer les nouveaux équilibres dans l’économie de la donnée.
Expert en droit de la propriété littéraire et artistique et en gestion de droits
Après des études juridiques (DEA en Finances publiques et Fiscalité – Paris 2) et en Information Communication (Institut Français de Presse – Paris 2), Philippe MASSERON a successivement occupé les postes de directeur juridique et directeur général au CFC (Centre Français d'exploitation du droit de Copie).
Il est administrateur du gf2i (Groupement Français de Industries de l'Information) délégué à la prospective. Il participe régulièrement aux missions du CSPLA.
Anne-Marie Libmann (AML) : Comment définissez-vous le problème de fond sur la question du droit d’auteur par rapport aux systèmes d’intelligence artificielle générative (SIAG) ?
Philippe Masseron (PM) : Nous assistons à une réaccélération et une amplification massive du phénomène de scraping, fouille et crawling des données. Cela n’est pas nouveau, nous avons déjà été confrontés à des situations similaires par le passé qui ont suscité de vives inquiétudes, comme lors du lancement de Google Books ou des grands programmes de numérisation des bibliothèques. Mais l’échelle et la vitesse ont changé. Aujourd’hui, il existe d’immenses bases de contenus protégés accessibles, notamment dans le domaine scientifique, par exemple SciHub qui rassemble des millions de documents en infraction avec le droit d’auteur.
La plateforme Scopus propose depuis longtemps des outils de recherche classiques : opérateurs booléens, et de proximité, navigation dans les citants/cités. Les fonctionnalités apportées par Scopus AI permettent d’expérimenter de nouvelles stratégies.
Tous les serveurs/agrégateurs présents sur le marché sont en train d’intégrer plus ou moins rapidement des fonctionnalités d’intelligence artificielle. Ils le font souvent en proposant à des bêta-testeurs, souvent des clients importants, de les aider à finaliser la mise au point de ces nouvelles fonctionnalités. D’autres, et ce n’est pas incompatible, mettent progressivement à disposition des séries d’outils innovants.
Entre les annonces de Google et d’OpenAI, l’utilisation de l’IA dans la recherche redessine irrémédiablement les pratiques sur Internet. Aux agrégateurs traditionnels comme les moteurs de recherche et les médias sociaux, s’ajoutent donc les moteurs avec IA. Pour les veilleurs, le challenge se déplace de la synthèse à la vérification des résultats de recherche.
Il y a quelques jours, OpenAI volait la vedette à Google qui présentait pourtant sa Keynote, événement phare des groupes de la tech. La rumeur, qu’Open AI ne s’est pas empressé de démentir, annonçait le lancement de son propre moteur de recherche. Finalement, ce dernier a (en attendant?) présenté un nouveau modèle gratuit qui intègre le web et les GPTs, des fonctionnalités jusqu’alors payantes (environ 20 €/mois). Si l’on ajoute la liste d’accords de licences avec les médias qui s’allonge chaque semaine, on comprend que l’ambition de ce dernier est réelle et se veut à la hauteur des attentes.
Les utilisateurs utilisent en effet les chats d’IA comme des moteurs de recherche et y font leurs recherches malgré le risque d’hallucination. La recherche d’informations fait ainsi partie des usages inattendus des modèles de langage, créés à l’origine pour deviner des suites de phrases. D’après une étude de The Verge, 53 % des utilisateurs et 61 % des Millenials utilisent les chats IA plutôt que les moteurs de recherche traditionnels pour faire leurs recherches.
L'intelligence artificielle révolutionne le paysage médiatique en introduisant de nouvelles fonctionnalités telles que des résumés automatisés, des podcasts générés par l'IA, la traduction de contenu et des chatbots.
Si ces outils peuvent aider les professionnels de l'information à gagner du temps et à améliorer l'expérience utilisateur, ils ne remplacent pas le jugement et l'expertise humains. Il est crucial pour ces professionnels de s'adapter à ces changements en développant de nouvelles compétences et en se concentrant sur des tâches à plus forte valeur ajoutée pour rester pertinents dans l'ère de l'IA.
L’IA fait progressivement son chemin dans les produits, sites et contenus proposés par les médias en France et à l’international. Si en 2023, il s’agissait surtout de tests et de pilotes, en 2024, le nombre d’initiatives notables ne cesse de croître.
Et ceci est dans la plupart des cas généré grâce à de l’IA générative. Numerama le propose par exemple dans sa version payante. D’autres utilisent la génération de résumé cette fois-ci pour les commentaires des articles : c’est par exemple ce que propose l’Équipe depuis peu.
Utiliser un assistant IA monotâche comme les GPTs d’OpenAI permet d’utiliser un modèle de langage dans un but spécifique et de façon plus précise qu’avec un chatbot généraliste comme ChatGPT, Gemini ou Copilot. Nous en avons testé une vingtaine dédiés à la recherche et voici les résultats de notre sélection.
Les agents virtuels ne sont pas simplement capables de converser et de guider l’utilisateur comme un chatbot, mais ils peuvent aussi adapter leurs réponses au contexte et à l’intention de celui-ci.
Les plus connus sont les GPTs d’OpenAI, même si d’autres agents sont apparus comme les Hugging Chat Assistants de Hugging Face et les copilotes de Microsoft.
Mais les GPTs d’OpenAI, d’après nos tests, restent les plus opérationnels. Attention, ils ne sont toutefois disponibles qu’avec la version payante GPT Plus, pour un résultat qui reste inégal.
Inoreader est un agrégateur de flux RSS connu des professionnels de la veille qui sont particulièrement concernés par l’idée de se constituer un « second cerveau ». Ce dernier est capable de mémoriser l’information importante tout en facilitant sa disponibilité pour l’utiliser quand cela s’avère nécessaire. Jusqu’où et comment cet outil de veille peut-il contribuer à cette démarche ? Voici une méthode pas à pas.
L’idée de se construire un « second cerveau » digital, sorte d’externalisation de sa mémoire informationnelle est ancienne. Elle a été popularisée récemment avec succès par Tiago Forte (voir à ce sujet les articles de NETSOURCES N° 165, juillet-août 2023). Sa démarche se divise en quatre étapes, réunies sous l’acronyme CODE : Capturer, Organiser, Distiller et Exprimer.
Lire aussi :
Que valent les outils de reconnaissance faciale pour la veille image ou l’investigation ?, BASES N°414, Mai 2023
La veille et la recherche d’information à l’ère des « fake news » et de la désinformation, NETSOURCES N°140, Mai 2019
Tirer parti du fact-checking et du journalisme d’investigation pour la veille et la recherche d’information, NETSOURCES N°140, Mai 2019