Le journalisme d’investigation n’a jamais été aussi productif. Pourtant, pour les professionnels de la veille et de l’information, accéder à cette production de façon aisée et à un coût abordable est de plus en plus difficile. Multiplication des titres indépendants, abandon de la vente à l’article, modèles d’abonnement complexes : cet article dresse un état des lieux de ces obstacles et des initiatives qui tentent d’y répondre.
Plusieurs facteurs convergent pour expliquer le dynamisme du journalisme d’investigation en France. La multiplication des affaires politiques et économiques portées sur la place publique, favorisée par la levée progressive de certains modes de protection bien établis, crée une demande forte d’informations/révélations. Cette intolérance croissante de l’opinion publique face aux dérives pousse un nombre grandissant de journalistes, professionnels comme amateurs, à mener des enquêtes et à en diffuser les résultats le plus largement possible.
Le développement des outils de publication en ligne comme en format papier a considérablement abaissé les barrières à l’entrée : il est désormais possible de lancer un média, certes avec des moyens limités, totalement indépendant des grands groupes de presse.
Cependant, sa distribution, payante ou gratuite, demeure un problème majeur en raison des coûts de promotion rapidement élévés.
Les coûts de fabrication au sens large n’étant pas nuls, certains titres en ligne ont décidé d’offrir le libre accès à leur publication sans obligation d’abonnement. A la place, ils sollicitent des dons, bien sûr sur une base volontaire, et il semblerait que ce système fonctionne.
Interview de Christelle Urvoy, Consultante en intelligence économique et veille stratégique, menée par Christel RONSIN
Christelle Urvoy partage son approche pragmatique pour intégrer l’intelligence artificielle générative (IAG) dans les processus de veille, de pédagogie et de gestion des connaissances. Elle explique comment allier innovation et méthodologie entre automatisation des tâches, vigilance sur les sources et réhumanisation des échanges.
Christelle URVOY : Sur la veille, j’intègre désormais l’IA à plusieurs étapes du cycle, en restant très attentive à la confidentialité. Je ne transmets aucune information identifiable sur mes clients : l’IA me sert surtout à structurer des hypothèses, repérer des angles d’analyse et reformuler des enjeux. Je l’utilise aussi comme un effet miroir : je pose des questions, parfois similaires à plusieurs reprises, pour comparer les réponses et faire émerger des variations qui nourrissent et affinent mes analyses.
L’IA joue aussi pour moi un rôle d’équipier, car je n’ai pas toujours la possibilité de travailler en équipe. Sur des analyses macro, c’est un outil extrêmement utile pour dresser un panorama générique. Dès qu’on passe au micro, ou que la démarche doit s’appuyer sur des chiffres fiables et récents, l’IAG manque encore de précision sur ces aspects.
Pour les grandes entreprises, ces outils fonctionnent bien, car sur un marché international, où il y a beaucoup de données publiques, l’IA excelle : elle permet d’effectuer du sourcing étranger, de croiser de nombreuses informations difficiles à analyser rapidement nous-mêmes, et de fournir une vision claire des enjeux concurrentiels.
Cet article constitue la deuxième partie d’une analyse de Philippe Masseron publiée dans BASES en février 2026 : IA générative et droit d’auteur : la bataille pour la qualification juridique de l’entraînement (1re partie)
Deux décisions en Allemagne et deux aux USA, permettent-elles de dégager des tendances sur la façon dont les juges américains et européens qualifient les utilisations d’œuvres protégées lors des phases d’entraînement des IA ?
Avec la multiplication des contentieux (une dizaine en mars), les juridictions européennes et américaines commencent à statuer sur la licéité de l’utilisation d’œuvres protégées pour entraîner les IA génératives. Ces quelques décisions ne sont pas définitives (1), mais elles permettent d’identifier les lignes de force juridiques.
Au cœur de ces litiges figure une question commune : l’usage massif d’œuvres protégées pour l’entraînement des IA relève-t-il du monopole d’exploitation de l’auteur ou peut-il bénéficier des mécanismes d’exception comme le fair use aux USA ou l’exception TDM (text and data mining) en Europe ?
Philippe Masseron, ancien Directeur Général du CFC et Directeur Général du gf2i, partage son expertise sur les grandes problématiques liées au droit d’auteur à l’ère de l’intelligence artificielle générative.
Google et Microsoft ont rendu l’IA omniprésente dans leurs services. Reste à savoir ce qui est réellement inclus sans abonnement supplémentaire.
Pour un utilisateur français, la réponse suppose de distinguer le compte Google personnel gratuit, la licence Microsoft 365 Business standard, les options payantes, les restrictions d’âge, les disponibilités régionales et les écarts entre assistant conversationnel, personnalisation avancée et fonctions agentiques.
Cet état des lieux pratique de mars 2026, vu de France, s’appuie sur des usages observés et sur ce qui est effectivement documenté dans les sources officielles des deux acteurs.
LIRE AUSSI :
Sur la place de l’IA dans la panoplie Microsoft/Google (copilotes, licences, coûts) : L’arrivée de l’IA dans la panoplie d’outils des veilleurs et documentalistes
Sur la bascule vers les agents IA et les copilotes type Copilot / Gemini: Repenser la veille à l’ère des agents IA
Gemini désigne à la fois le modèle de langage développé par Google DeepMind et l’interface conversationnelle accessible sur gemini.google.com, l’équivalent de ChatGPT d’OpenAI, accessible sans frais à tout titulaire d’un compte Google personnel gratuit.
Gemini n’est pas un produit isolé : c’est le point d’entrée d’un écosystème plus large intégrant Search, Maps, Photos, YouTube et Gmail, avec des niveaux de connexion variables selon le pays et le type de compte.
L'intelligence artificielle transforme notre quotidien, mais elle a aussi un coût pour la planète. Entre consommation énergétique massive, data centers toujours plus puissants et émissions de CO₂, l'essor de l'IA soulève de nouvelles questions environnementales. Comprendre cet impact devient essentiel, tout comme explorer les solutions pour rendre ces technologies plus durables.
Cependant, l'IA offre aussi des opportunités pour accélérer la transition écologique, comme en optimisant les réseaux énergétiques ou en modélisant le climat.
On admire l'intelligence artificielle pour ses prouesses : elle écrit des textes, traduit des langues, crée des images et même compose de la musique. Mais derrière ces prouesses se cache une réalité moins glamour… l'IA consomme énormément d'énergie et contribue à la pollution de notre planète.
Plus les modèles deviennent puissants, plus ils nécessitent des infrastructures informatiques gigantesques : serveurs spécialisés, centres de données et supercalculateurs capables d'effectuer des milliards d'opérations. Toute cette puissance de calcul repose sur une consommation d'électricité importante, encore largement issue de sources d'énergie non renouvelables.
Il y a six mois, produire un tableau de bord de veille concurrentielle supposait un développeur, un cahier des charges, un délai. En 2026, une documentaliste d'un grand groupe industriel le fera seule, en deux heures, avec ChatGPT et/ou Lovable. Ce déplacement, de la demande IT à l'autonomie opérationnelle, n'est pas anecdotique. Il reconfigure les rôles, les postures et, progressivement, les organisations.
Ce numéro illustre ce basculement sous quatre angles complémentaires.
Véronique Mesguich analyse NewsCore, plateforme en IA native où agents, scoring de fiabilité et clustering reconfigurent la chaîne de veille. Son regard est nuancé : elle rappelle la robustesse des plateformes historiques sans les opposer à cette nouvelle génération. Le geste change : on ne requête plus un corpus, on programme des comportements. Le veilleur devient chef d'orchestre, ce qui suppose une maîtrise accrue de l'intention et de l'interprétation. L'expertise ne disparaît pas, elle se déplace vers ce que l'IA ne fait pas : définir le besoin, formuler l'intention, interpréter ce qui remonte.
Le passage à la veille "IA générative native" (ou GenAI-first) marque une transformation dans le monde des outils de veille. Contrairement aux solutions traditionnelles qui ont simplement « greffé » une couche d'IA ou des connecteurs, ces plateformes sont conçues dès l'origine autour de modèles de langage génératifs (LLM) capables de produire des synthèses, reformulations et analyses, et s'appuient sur le machine learning pour personnaliser et améliorer la pertinence. Il s'agit pourtant moins d'une nouvelle vague appelée à remplacer la précédente que d'une bascule du centre de gravité (interfaces conversationnelles, usages orientés production de contenus, nouvelles métriques), et d'une convergence entre nouveaux entrants et éditeurs historiques.
Examinons cette nouvelle génération à travers l'exemple de la plateforme NewsCore.
On parle d'IA native quand l'IA n'est pas juste une option (par exemple, un bouton ChatGPT pour résumer un article), mais le cœur du produit. Cela se traduit par plusieurs fonctionnalités liées aux étapes du processus de veille.
Fin 2025, OpenAI lance les Applications ChatGPT, un système permettant d'intégrer des services comme Tripadvisor, Canva ou Photoshop, utilisables directement dans la conversation. Nous décryptons cette évolution et la technologie sous-jacente qui rend cela possible, puis nous passons à la pratique en testant le vibe coding avec deux Applications ChatGPT.
En octobre 2025, OpenAI annonce l'ajout des Applications dans ChatGPT. Pour ceux d'entre vous qui suivent de près l'évolution de l'outil, l'impression de déjà-vu est inévitable : en janvier 2024, OpenAI lançait GPT Store, un catalogue de chatbots personnalisés créés par la communauté.
LIRE AUSSI :
Le context engineering : orchestrer l'information pour les agents IA, Netsources N° 179 - Novembre - Decembre 2025
Test complet de ChatGPT Agent : que vaut-il pour la veille, l'analyse concurrentielle et l'audit SEO ?, Netsources N° 177 - Juillet - Août 2025
Repenser la veille à l'ère des agents IA, Netsources N° 173 - Novembre-Décembre 2024
Aujourd’hui, une photo de Donald Trump arrêté par la police peut faire le tour du monde avant que quelqu’un ne se rende compte… qu’elle n’a jamais existé. Les images générées par intelligence artificielle (IA) se multiplient sur les réseaux, parfois pour le divertissement, parfois pour désinformer. Mais une question persiste : comment savoir si une image a été créée par une IA ? Et surtout, pourquoi est-ce devenu si difficile ?
Les outils comme Midjourney, DALL·E ou Stable Diffusion ont démocratisé la création d’images bien avant le fameux Nanobanana de Google/Gemini, qui marque un tournant en combinant des capacités professionnelles à une vitesse de génération «Flash».
En quelques secondes, il suffit de taper une phrase comme “une femme en armure sous la pluie, style réaliste” pour obtenir une image bluffante et hyper réelle. Résultat : n’importe qui peut produire une photo “trop belle pour être vraie”. Et bien souvent, elle l’est. Si ces technologies sont fascinantes pour les artistes ou les créateurs de contenu, elles posent un vrai problème dans un monde où une image suffit à créer le doute : politique, désinformation, fake news… L’IA brouille les frontières entre le réel et le faux.
Christian Vigne (Narra), anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).
C’est probablement l’idée la plus éclairante que j’ai tirée de très rares conversations que j'ai eues des dirigeants de startups d’IA de pointe. J’ai d’abord été un peu déstabilisé : d’un côté, la prise de conscience que c’est tout à fait logique ; et, de l’autre, qu’à terme cela pourrait générer des tensions.
Pour ce type de startup - ou plus largement pour les entreprises technologiques du même écosystème- cela a parfaitement du sens. La technologie ouvre la voie, car l’enjeu est de convaincre une communauté de développeurs d’adopter un modèle, d’attirer des chercheurs, d’inciter des investisseurs à s’engager, de se faire remarquer grâce à des avancées techniques, et de garder une longueur d’avance sur des concurrents ayant les mêmes objectifs.
