Deux ans après l’irruption fulgurante de l’IA générative dans nos vies, peut-on craindre une réécriture ou un effacement progressif de nos savoirs fondamentaux ?
Le paysage est contrasté. D’un côté, des avancées technologiques spectaculaires - notamment en santé ou en traduction automatique. De l’autre, une remise en question profonde de nos méthodes traditionnelles d’accès à la connaissance, d’analyse critique et de validation. À la clé, un risque réel : perdre pied dans un écosystème informationnel où la traçabilité devient optionnelle.
Le salon I-Expo/Documation, qui vient de tenir sa session annuelle, offrait un reflet saisissant de cette dualité. L’affluence remarquable aux conférences centrées sur l’IA témoignait d’un intérêt évident et d’une volonté de comprendre le phénomène dans son ensemble. Mais elle allait de pair avec une inquiétude et une prise de conscience : la nécessité d’encadrer ces outils et de préserver nos repères humains ainsi que l’accès à une information sourcée, fiable et compréhensible.
Particulièrement révélateurs à cet égard étaient les discours des éditeurs de logiciels de veille. D’un côté, ils valorisaient l’intégration des fonctionnalités d’IAG dans leurs plateformes, notamment pour la traduction, le résumé, l’analyse, avec même parfois un package de prompt engineering pour faciliter les interactions du veilleur avec le modèle d’IA. Parallèlement, ils réaffirmaient leur engagement à maintenir le rôle primordial des experts et de l’intelligence humaine dans l’analyse stratégique au service de la prise de décision, et mettaient en garde contre la « boîte noire » de l’IAG.
Ce nouveau numéro de Netsources s’inscrit pleinement dans cette dualité. Nous y explorons concrètement comment s’incarnent d’une part les promesses et innovations spectaculaires, et, d’autre part, les fractures profondes dont nous commençons à peine à mesurer l’impact.
Dans la catégorie des innovations technologiques remarquées figure Mistral AI, la startup française vedette du sommet IA de Paris en février dernier, qui, en moins de deux ans, a réussi à se positionner comme un acteur clé de l’intelligence artificielle générative.
Mais quelle est réellement la valeur ajoutée de Mistral AI face aux géants américains ? Nous avons voulu comprendre son positionnement original et évaluer ses chances de succès dans un environnement ultra-compétitif. Mais surtout, présente-t-elle un intérêt pour nos métiers de l’information ?
Nous avons exploré la question sous deux angles culturels distincts :
L’orientation de Mistral AI vers un multilinguisme affirmé, ainsi que son partenariat avec l’AFP, démontre son engagement envers des sources diversifiées et qualifiées. Cette démarche semble répondre aux critiques concernant la fiabilité des IA génératives. En évoluant vers un modèle d’agrégation d’informations familier aux utilisateurs professionnels et académiques, Mistral AI semble en mesure de renforcer sa crédibilité auprès de ces publics.
Développements ambitieux dans la sphère de l’IA donc, mais aussi inquiétude avec l’avènement des GSE (Generative Search Engines), ces moteurs de recherche d’un nouveau type, propulsés par l’IA générative. Véronique Mesguich nous y plonge dans « Du SEO au GEO : quelle visibilité pour les contenus Web ? », en y examinant l’impact sur les stratégies de référencement ainsi que l’émergence du GEO (Generative Engine Optimisation). Face à l’essor des IA conversationnelles qui filtrent et hiérarchisent l’information, les créateurs de contenu se voient contraints de repenser fondamentalement leur visibilité.
Cette nouvelle capacité de recherche nous éloigne progressivement des sources primaires. Les chatbots nous retournent désormais des réponses synthétiques construites à partir de multiples références qui, au mieux, ne sont que listées en périphérie de l’interface, sans aucune garantie d’exhaustivité ni certitude quant à leur interprétation par les modèles d’IA. Une ambiguïté que ces mêmes modèles entretiennent en affirmant - contrainte juridique oblige - ne pas pouvoir « accéder » au contenu des sources, tout en l’utilisant manifestement pour générer leurs réponses.
Un tel système, où la présentation et la hiérarchisation des sources sont entièrement contrôlées par les modèles eux-mêmes, n’incite guère l’utilisateur à consulter les références originales. C’est le système lui-même qui l’éloigne progressivement de la « référence source », en privilégiant la réponse toute faite au détriment de la consultation des documents primaires. Même la communication de Google en faveur d’une responsabilité vis-à-vis de l’écosystème Web à l’ère de l’IA semble faible face à ce profond changement de paradigme.
On lira avec beaucoup d’intérêt la passionnante étude « AI Search Has A Citation Problem », qui montre que les IA génératives peinent à attribuer correctement les sources. Dans les tests réalisés sur huit outils majeurs, plus de 60 % des citations étaient inexactes, mêlant erreurs, liens fictifs et contournement des protocoles d’exclusion comme robots.txt. Ce n’est pas un simple désagrément technique : ces défauts rendent certaines données invisibles ou mal représentées, privant les créateurs originaux de reconnaissance et faussant l’accès à l’information.
L’automatisation du savoir par l’IA soulève une question essentielle : comment préserver l’authenticité de l’information de référence ? Des initiatives comme celles de Mistral AI, qui placent la qualité des sources au cœur de leur approche, montrent qu’un autre chemin est possible pour le développement des modèles IA.
Mais la question est stratégique pour les professionnels de l’information qui doivent s’en saisir pour garantir l’intégrité documentaire et décisionnelle dans les organisations et les sociétés. Restaurer la traçabilité dans un monde de synthèse, c’est redonner du sens à l’acte de recherche.
Déjà abonné ? Connectez-vous...