Le bouleversement de ce début d’année 2023, c’est bien évidemment le lancement grand public de ChatGPT et plus largement la course à l’intégration de l’IA générative dans tous les outils du quotidien et du monde professionnel.
Les moteurs de recherche Web dans leur ensemble se sont tous précipités pour intégrer cette dimension à leurs moteurs, certains intégrant directement GPT-3 ou 4 comme Bing et d’autres préférant utiliser d’autres modèles.
Cette intégration de l’IA générative et conversationnelle dans les moteurs apporte sans conteste une dimension nouvelle à la recherche d’information sur le Web.
Mais est-ce que cela améliore réellement les moteurs Web ? Cela permet-il de trouver plus rapidement de l’information, de trouver des informations qui n’arrivaient pas à émerger dans les moteurs de recherche, d’explorer plus en profondeur la fameuse longue traîne ?
Lire aussi :
Les moteurs gratuits, c’est fini
L’actu du Veilleur : plein phare sur l’IA
Quels outils utiliser pour bénéficier de ChatGPT ?
Nous avons testé Kagi Search, un nouveau challenger de Google
Presearch permet de chercher depuis la localisation de son choix
Nous avons testé Neeva, le moteur qui pourrait remplacer Google chez les pros de l’info
Nous sommes à un moment charnière où l’intelligence humaine va s’enrichir considérablement de l’intelligence artificielle pour devenir encore plus puissante. Et les secteurs de l’information, de la communication et de la langue, terrains de prédilection d’un modèle de langage tel que ChatGPT, sont certainement parmi les premiers bénéficiaires de cet enrichissement inédit et renversant. Même si l’on peut naturellement craindre l’autre versant, beaucoup moins optimiste, de cette promesse, avec des effets négatifs encore difficiles à caractériser et à évaluer à ce stade.
Jusqu’à présent le domaine de la veille multilingue exigeait du professionnel qu’il associe à son expertise technique en matière de veille à l’international, une certaine «agilité linguistique», voire de véritables compétences linguistiques. Il est dorénavant boosté par l’irruption de l’IA dans tous les process, du sourcing à la production de livrables, en passant par l’élaboration des stratégies de recherche.
La question du multilinguisme intervient également dans la phase de diffusion de la veille quand il s’agit de produire des contenus dans différentes langues : soit en dupliquant les livrables dans différentes langues pour satisfaire les besoins des collaborateurs basés dans différents pays soit pour produire des livrables dans une langue unique que tous les collaborateurs comprennent, dans la majorité des cas l’anglais.
Mais rares sont les veilleurs et professionnels de l’information maîtrisant à la perfection de multiples langues. Et quant à l’anglais, même si nombreux sont ceux qui en ont une maîtrise professionnelle ou avancée, il n’en reste pas moins que produire des contenus dans une langue qui n’est pas sa langue natale prend nécessairement plus de temps et de réflexion.
Comment produire des livrables multilingues et gagner du temps tout en produisant des contenus en « bon anglais » ? C’est ce que nous avons exploré dans cet article.
2023 sera-t-elle l’année où l’utilisation de l’intelligence artificielle (IA) se démocratise au sein de l’activité de veille ? En attendant de le confirmer, notre sélection dans l’actualité de la veille montre que l’IA s’intègre, doucement mais sûrement, dans nos outils quotidiens. Florilège.
L’outil de traduction automatique DeepL Translator, devenu incontournable pour les professionnels de l’information, étend son champ de compétences à la réécriture. Auréolé de son nouveau statut de Licorne, DeepL vient de sortir la version bêta de DeepL Write, un outil de rédaction par une Intelligence artificielle.
Lire aussi :
Depuis l’avènement de Chat GPT, quelques outils gratuits permettent désormais de détecter si un contenu a été écrit avec la fameuse IA. Un contre pouvoir bienvenu qui permet d’encadrer les pratiques.
Le détecteur le plus performant à ce jour est ChatGPT Detector, créé par une entreprise franco-canadienne, Draft & Goal. Il est (de loin !) le plus fiable pour du contenu en français et en anglais. L’entreprise annonce un taux de réussite de 93 % sur plus de 2000 tests effectués et notre expérience le confirme (à titre de comparaison, l’outil de détection d’OpenAI, AI Text Classifier, n’est fiable, de leur propre aveu, qu’à 26 %).
Le fonctionnement de ChatGPT Detector est extrêmement simple : on accède à cet outil sans inscription, puis on y copie-colle le texte que l’on souhaite analyser. L’outil livre son résultat sous forme de pourcentage de 0 à 100 % de probabilité que le document ait été produit via une intelligence artificielle.
En outre, chaque itération permet d’améliorer l’intelligence de l’outil face à un document.
Nul n’a pu y échapper. Dans les médias, au bureau… on ne parle que de cela : ChatGPT est-il en train de ringardiser Google ?
Au regard de la recherche d’informations, ChatGPT n’est pourtant pas assez fiable pour être utilisé de façon professionnelle. D’ailleurs, ce bot conversationnel n’a pas vocation à devenir un moteur de recherche. En revanche, son impact sur la recherche d’information est réel et il est intéressant d’explorer dès maintenant les usages en la matière, en ce qu’ils préfigurent ceux des années à venir.
Difficile de résumer ChatGPT, un bot gonflé à l’intelligence artificielle, à une seule fonctionnalité : créateur de contenu (et de code), moteur de réponse, traducteur, générateur de résumé… ChatGPT fait tout cela à la fois. Il peut donc être utilisé à chaque étape de la veille, qu’il s’agisse de l’identification des besoins, du sourcing, ou de l’analyse.
Pourquoi est-il populaire ? Du fait de son interface de dialogue simplifiée, à laquelle on accède après inscription. Une fois cette formalité établie, une barre de dialogue s’ouvre en bas de page. C’est là que l’on pose ses questions. L’outil y répond en haut et la conversation défile, comme une conversation avec n’importe quel chatbot.
L’intégration de l’IA dans les outils de recherche est le grand sujet de ce début d’année 2023. Et cela s’applique également au monde des moteurs de recherche académique.
Il y a quelques mois, nous présentions Elicit, un moteur innovant qui se présente comme un assistant dopé à l’IA
Voir notre article « Elicit, un nouveau moteur scientifique au banc d’essais » - BASES n°404 - juin 2022
Dans la même veine, nous nous intéressons maintenant à un nouvel outil : Consensus dont nous allons analyser les capacités, les forces, les faiblesses et la valeur ajoutée pour le professionnel de l’information.
L’opus 2022 de l’Artificial Intelligence Conference on Search, Data and Text Mining, Analytics and Visualization plus connue sous le vocable « AI-SDV » vient de se terminer dans une atmosphère particulière.
Si les contributions ont été, pour la plupart, de qualité et le réseautage efficace, nous retiendrons que c’est une manifestation de plus que les professionnels de l’information ne connaîtront probablement plus, la faute du Covid qui a « tué » la manifestation à petit feu.
Les plus anciens se souviennent d’un temps où les événements se bousculaient parfois à l’agenda, autant que le public à ces événements. Ces derniers risquent maintenant de se limiter aux dates proposées par l’EPO (European Patent Office) ou les groupes d’utilisateurs. Dans cet article, Benoit Sollie et François Libmann soulignent quelques présentations (disponibles sur Internet) et lignes de force qui ont marqué cette dernière édition.
Questel est, depuis plusieurs années, une société en fort développement.
En effet, si, en avril 2015, elle comptait environ 140 salariés, 3 000 clients et 100 000 utilisateurs, en mars ces chiffres sont devenus 1 400 salariés, 15 000 clients et plus de 1,5 million d’utilisateurs.
Cette croissance importante est due pour une bonne part à l’acquisition d’un grand nombre de sociétés offrant des produits et/ou des services dans le domaine de la propriété intellectuelle (voir notre article « Questel double sa taille avec plusieurs acquisitions en 2021» dans ce même numéro).
L’ensemble de ces acquisitions a été réalisé avec le soutien de fonds de Private Equity.
Ce souci de développement ne pouvait, bien sûr, mettre de côté l’utilisation de l’intelligence artificielle.
Lire aussi :
Brevets : les évolutions d’Orbit
Les "combination sets" dans la classification des brevet
Contentieux de brevets et marques : Clarivate Analytics rachète darts-ip
IA, deep learning, recherche sémantique, classification automatique : ces termes sont de plus en plus fréquents dans le monde des bases de données brevets.
Vont-ils renvoyer les tenants de la recherche traditionnelle au rayon des archives du monde des professionnels de l’information brevet ? Les codes CIB, CPC, les mots-clés représenteront-ils bientôt des techniques démodées à remiser au placard ? Qui sont ces nouveaux outils et condamnent-ils réellement des techniques éprouvées depuis plusieurs dizaines d’années, ou au contraire ne font-ils que les complémenter ? Enfin, quel est leur niveau de performance et comment les utilise-t-on ?
Les informations ici présentées résultent également d’un échange avec les équipes d’IPRally.
Depuis quelques années, les Knowledge Graphs ("graphes de connaissances"), ces réseaux sémantiques construits à partir des relations établies entre des entités de types différents (personnes, évènements, lieux, situations, concepts, etc.) ont la cote auprès des outils de recherche et de veille professionnels. Nombre d’entre eux mettent d’ailleurs en avant leur utilisation dans leur discours commerciaux. On notera bien qu’il s’agit ici d’une technologie utilisée en arrière-plan sur laquelle l’utilisateur final n’a pas directement la main.
D’une part, de nouveaux outils indiquent mettre cette technologie au cœur de leurs produits, ce qui, selon eux, viendrait « révolutionner » la recherche et la veille. C’est par exemple le cas d’IP Rally, un nouvel outil de recherche brevets qui met en avant « une technologie unique basée sur un Knowledge Graph ». IP Rally se présente comme une alternative aux outils à base d’IA qui sont de véritables boîtes noires et les outils fondés sur la recherche par mots-clés classique.
D’autre part, des outils, déjà bien en place, communiquent également régulièrement sur l’intégration de Knowledge Graphs dans leurs produits. C’est par exemple le cas du lecteur RSS Feedly pour son « assistant intelligent » Leo mais aussi d’EBSCO pour sa nouvelle interface EDS lancée fin 2020 ou encore de Dow Jones (Factiva) dans son produit DNA lancé à la fin de l’année 2019.
Lire aussi :
Outils de recherche payants à l’heure de la recherche booléenne « augmentée »
Comment construire ses propres outils de recherche d’information thématiques ?
Les moteurs de recherche spécialisés (recrutement, juridique, santé) étaient à l’honneur cette année.
Et tous ces acteurs s’intéressent à la façon dont ils peuvent faire évoluer leurs outils en tirant parti du développement de l’IA tout en restant à l’écoute de leurs utilisateurs.
Trois acteurs étaient venus présenter certains axes de recherche sur lesquels ils ont travaillé récemment pour améliorer leurs moteurs.
Nous commencerons avec un outil de recherche spécialisé dans le recrutement et les ressources humaines appelé Texternel, fondé en 2011 à Amsterdam. Il s’agit d’un moteur principalement utilisé par les services RH des entreprises et qui permet de rechercher sur des bases de CV et réseaux sociaux afin d’identifier les bons candidats pour un poste.
Lire aussi :
Un avant-goût de l'avenir de la recherche sur le Web avec Search Solutions 2019
Comprendre les évolutions des moteurs Web généralistes pour mieux les utiliser
Des nouveaux moteurs qui tirent parti des contenus multimédia
Le SEO et la veille au défi des moteurs
Lors de la dernière édition d’i-expo en mars dernier, une table ronde a rassemblé un panel d’experts représentant toutes les facettes du secteur de l’information.
Étaient présents :
Frédéric Martinet, consultant et formateur en intelligence économique, et créateur du blog Actulligence
Véronique Mesguich, consultante et formatrice, auteur de l’ouvrage « Rechercher l’information stratégique sur le web : sourcing, veille et analyse à l’heure de la révolution numérique », (DeBoeck, 2018, collection «Information et stratégie»).
Le développement de l’intelligence artificielle fait évoluer le métier des professionnels de l’information au quotidien et nous nous en faisons régulièrement l’écho dans BASES.
S’il y a bien évidemment beaucoup de tâches qu’on ne peut pas et que l’on ne doit pas déléguer à l’IA, elle apporte sur certains aspects une réelle valeur ajoutée aux pratiques et aux outils professionnels.
Nous avons choisi ici de nous intéresser aux outils de résumé automatique, qui génèrent automatiquement des résumés à partir d’un ou plusieurs documents tels qu’un article scientifique, article de presse, rapport, thèse, page Web, etc.
La recherche de citations et de références représente une autre façon de rechercher de l’information, complémentaire aux traditionnelles recherches booléennes.
Cette recherche recouvre deux aspects :
Elle permet tout d’abord de rechercher et visualiser ce qu’un document a référencé et cité dans son contenu. Il peut s’agir aussi bien des références bibliographiques d’un article scientifique que de simples mentions d’un article ou document au sein d’un article de presse ou de blog. On est ici dans une forme de sérendipité où l’on navigue de liens hypertextes en liens hypertextes. Et lorsqu’un document cite ses sources, celles-ci ont toutes les chances d’être reliées au sujet qui nous intéresse.
Mais il s’agit aussi de repérer qui a, depuis cette publication, utilisé et cité cet article initial. On pensera ici surtout à certains outils de recherche académiques et scientifiques qui listent sous chaque article le nombre de fois où il a été cité et un lien vers ces documents. Il pourra s’agir également de repérer les documents et pages pointant vers un article de presse, un billet de blog ou mentionnant une étude, etc.
Impossible aujourd’hui d’occulter la question de l’intelligence artificielle en lien avec la veille et la recherche d’information. Deux conférences d’i-expo portaient d’ailleurs exclusivement sur cette thématique et l’on retrouvait cette question en filigrane de toutes les autres tables-rondes.
Si pour certains professionnels, elle peut être perçue comme une menace, avec des machines et algorithmes capables de remplacer les pros de l’information, pour la majorité des experts présents lors du salon, l’IA est considérée comme une alliée au service de la veille et du veilleur « augmenté », capable d’automatiser certaines tâches chronophages et à faible valeur ajoutée.
Lire aussi :
Quelles pratiques de veille dans les entreprises françaises en 2019 ?
Quel rôle pour les pros de l’info vis à vis de la désinformation ?
Utilisateurs et experts métiers : l’humain au cœur du dispositif de veille
A l’heure des livrables augmentés
De nouvelles formes de veille au service de l’image des entreprises
La recherche d’information et notamment ses outils et méthodes, ne cesse d’évoluer. C'est le cas avec les outils gratuits dont nous avons fait un panorama dans le dernier BASES (la recherche d'information au mille visages). Il est temps maintenant d’aborder la question des outils de recherche payants comme les serveurs, bases de données ou agrégateurs de presse.
Car si le paysage des acteurs n’a pas tant changé au cours des dernières années, à l’exception des nouveaux outils liés à l’exploration du Web ouvert et des médias sociaux, les technologies et la façon d’utiliser les outils de recherche professionnels payants ont quant à elles beaucoup évolué.
Nous avons cette année pu nous rendre au salon Internet Librarian International qui avait lieu à Londres les 16 et 17 octobre derniers et qui fêtait cette année ses 20 ans. Cette conférence de deux jours précédée d’une journée de Workshops se définit comme « The library innovation conference » et vise tous les professionnels de l’information dans leur ensemble qu’ils travaillent dans des bibliothèques publiques, universitaires ou des centres de documentation ou services de veille publics ou d’entreprise.
Pour beaucoup de professionnels qui avaient l’habitude de se rendre au salon Online et dont la dernière édition date de 2013, ce salon est devenu le rendez-vous incontournable de la profession, du moins en Europe. Nous avons ainsi pu y croiser des professionnels du monde entier, des anglais et américains surtout mais également de nombreux représentants des pays du nord de l’Europe et quelques personnes venues d’Asie.
Depuis plus d’un an maintenant, l’intelligence artificielle (IA) est au cœur de l’actualité et des discussions professionnelles. Mais s’il est beaucoup question d’IA et de machine learning, appliqués aux moteurs de recherche grand public, aux outils de traduction ou encore aux outils de veille, elle se fait plus discrète pour tout ce qui a trait à l’information scientifique et technique et les brevets. Et pourtant, elle y est bien présente et mérite qu’on s’y intéresse.
Lors de la dernière réunion annuelle du CFIB, le Club Francophone de l’Information Brevet, elle a d’ailleurs été au centre des discussions. L’une des présentations consacrée à l’intelligence artificielle et la propriété intellectuelle a ensuite fait l’objet d’un article très intéressant dans la lettre du CFIB.
Dans le précédent numéro de BASES, nous avions eu l’occasion de revenir sur certaines conférences et ateliers ayant eu lieu lors du salon I-Expo qui s’est tenu les 20, 21 et 22 mars derniers.
Nous poursuivons donc dans ce numéro avec le compte-rendu et analyse des conférences suivantes :
- L’intelligence artificielle va-t-elle tuer ou renforcer les moteurs de recherche ? Comment s’assurer de la fiabilité de l’information recherchée à l’heure des bulles de filtres et de la désinformation ?
- Espaces communautaires, RSE, plateforme collaborative : les bons choix pour réussir une plateforme de veille collaborative, mobile et plus performante. Avec les retours d’expérience d’ENGIE, RATP, AEF, LA POSTE
L’interface de Google Actualités (https://news.google.fr) a été profondément remaniée au mois de mai.
L’occasion pour nous de présenter ces nouveautés et évolutions ainsi que leur impact sur la recherche d’information et la veille, en en pesant le pour et le contre du point de vue du professionnel de l'information, sur différents aspects : interface, intégration de l'intelligence artificielle, collection de contenus, accès direct au payant,...
Derrière cette nouvelle version, se cache-t-il un changement de stratégie ?
Animée par Antoine Dintrich, Directeur Général de l’IEEPI (Institut Européen Entreprise et Propriété Intellectuelle), la conférence inaugurale d’I-expo était consacrée cette année au thème phare de l’année 2018, l’intelligence artificielle.
Lire aussi :
Bilan de la première édition du salon conjoint I-expo/Documation
L’information au service du dirigeant est-elle un mythe ?
Social listening, e-réputation, Veille : quelle stratégie gagnante pour réussir votre veille sur les médias et les réseaux sociaux ?
La reconnaissance d’images, c’est-à-dire le processus d’identification et de détection d’un objet, d’un visage ou d’une caractéristique dans une image n’est pas un concept nouveau mais l’on voit se développer de plus en plus d’applications et de solutions tirant parti de cette technologie depuis l’année 2016, ce qui s’explique par l’accélération récente du développement de l’intelligence artificielle.
Si au départ la reconnaissance d’images était surtout utilisée pour des applications grand public (on pensera notamment à la bibliothèque de photos de l’iphone qui permet d’effectuer une recherche sur un objet comme par exemple « christmas tree » et qui retrouve toutes vos photos représentant un sapin, même en arrière-plan), les acteurs de la veille et surtout les outils de social media monitoring n’ont pas tardé à en tirer parti et à les inclure dans leurs plateformes.
C’est sur ces solutions que nous avons choisi de nous pencher aujourd’hui.
L’analyse automatique des sentiments n’est pas un phénomène nouveau mais était jusqu’à maintenant le point noir des plateformes de veille.
Presque toutes les plateformes de social monitoring/listening comme Meltwater, Radarly, Brandwatch, Talkwalker, Synthesio, etc. en proposent depuis des années mais le résultat était souvent décevant et peu fiable.
Mais le développement de l’intelligence artificielle et du machine learning pourrait bien faire changer les choses...