Google Scholar a été créé en 2004 par deux chercheurs. Son objectif a été et est toujours de référencer de grandes quantités d’articles, de rapports, de comptes-rendus de conférences, de livres ou de thèses pour peu qu’ils relèvent du secteur académique.
Sa devise « Standing on the shoulders of giants » signifie que Google Scholar existe parce que des chercheurs ont écrit et accumulé d’immenses quantités de connaissances. Cela a justifié la création de Google Scholar pour aider à naviguer dans cet océan d’information et y trouver des réponses à ses questions.
Les raisons de cette large utilisation sont très simples.
D’une part, l’accès est gratuit alors que de nombreuses sources d’information scientifique sont payantes. C’était particulièrement vrai il y a vingt ans, mais moins aujourd’hui.
D’autre part, l’étendue de sa couverture a pour conséquence qu’il est rare de ne pas trouver au moins quelques réponses intéressantes et bien souvent un nombre non négligeable à une question scientifique.
Enfin, son utilisation est simple, voire très simple, même si quelques possibilités avancées sont disponibles bien que pas toujours très mises en avant.
En revanche, la troncature n’existe pas alors que c’est un « must » pratiquement partout. On ne peut pas non plus entrer une chaîne de recherche experte sans même parler de combinaisons d’étapes totalement impossibles.
En ce qui concerne le traitement des réponses, leur nombre est limité à 1 000 ce qui est largement suffisant pour une simple lecture, mais ne l’est plus pour faire du data mining.
Même si ses utilisateurs semblent être toujours aussi nombreux, on voit poindre une série de critiques plus ou moins fondamentales.
Maître Thibault du Manoir de Juaye, avocat à la Cour de Paris, est un spécialiste reconnu en intelligence économique et en droit de la sécurité privée. Il a fondé son cabinet en 1995, intervenant régulièrement sur des dossiers liés à l’intelligence économique, notamment en matière de propriété intellectuelle.
Auteur de plusieurs ouvrages sur le sujet, il a également été rédacteur en chef du magazine « Regards sur l’IE ».
L’intelligence artificielle amplifie les problématiques juridiques déjà connues pour la veille et l’IE, notamment en raison de sa faculté à faciliter les recherches et à générer automatiquement des contenus de tout type.
Même si elle n’en est sans doute qu’à ses débuts, il existe déjà des tentatives pour encadrer juridiquement l’intelligence artificielle (IA).
Des juristes imaginatifs (et pour moi loufoques) vont même jusqu’à soutenir qu’il faudrait donner la personnalité juridique aux systèmes d’IA, un peu comme les sociétés ont la personnalité morale. Mais il ne s’agit pour le moment que de spéculations ludiques et récréatives, sans grand intérêt, sauf pour quêter une exposition médiatique à moindres frais.
Il faut donc s’en tenir au droit positif.
L’intelligence artificielle est désormais encadrée par un règlement européen en date du 12 juillet 2024, texte qui sera complété par des milliers de pages d’application.
Devant l’avalanche d’annonces sur les innovations et nouveautés en IA, cette rubrique met en avant celles que nous considérons comme utiles pour les professionnels de l’information.
N’hésitez pas à nous partager vos questions ou sujets d’intérêt liés à l’IA en nous écrivant à l’adresse Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser..
En préliminaire, il nous paraît important de clarifier notre position sur la difficulté à recommander de s’abonner à tel ou tel modèle d’IA pour accéder à certaines fonctionnalités (même si nous pensons que l’abonnement à ChatGPT est un must).
La dynamique entre les fonctionnalités gratuites et payantes dans les modèles d’IA évolue constamment, en fonction des stratégies commerciales, des retours utilisateurs et des innovations technologiques. Une fonctionnalité peut être d’abord réservée aux abonnés puis devenir gratuite, ou inversement, être monétisée après avoir gagné en popularité.
Anthropic sort une nouvelle version de son modèle Claude 3.5 Sonnet avec une innovation majeure dans le traitement documentaire, qui enrichit l’analyse les documents complexes en extrayant et analysant les éléments visuels contenus quand il existent.
Notre première démarche en préparant cet article a été d’interviewer Denis BERTHAULT, vice-président du GFII, et surtout, fin connaisseur des nombreuses évolutions et péripéties de l’information juridique en ligne en France. Qu’il soit ici remercié pour ses précieuses informations accompagnées de commentaires fort pertinents.
Judilibre, qui a vocation à diffuser en open access les décisions de justice, monte en puissance comme prévu. La Cour de cassation qui opère ce service s’était vu confier cette mission de mise à disposition des décisions de justice par un décret du 29 juin 2020.
« Avec 1542 demandes de brevets, Stellantis est le premier déposant en 2023 ». La presse économique est friande de ce type de chiffrage.
Que peut-on en déduire ? L’avantage de ces données brutes, c’est leur simplicité de lecture ; le dépôt de demandes de brevet étant souvent considéré comme un indicateur de la capacité d’innovation d’une entreprise, on peut en conclure qu’« en 2023, Stellantis est plus innovant que Safran qui l’est plus que Valeo… ».
Est-ce aussi simple ? Probablement pas, car attribuer le même poids à tous les brevets, c’est oublier que tous ne se valent pas. Comment donc introduire du qualitatif dans ce type de comptage, afin d’arriver à une vision plus juste ?
Lenso.ai est une plateforme spécialisée dans la recherche inversée d’images. Créé récemment, cet outil permet aux utilisateurs de télécharger une image puis d’obtenir en résultat une série d’images plus ou moins proches/analogues à l’image de départ. Elle est d’origine polonaise, comme sa célèbre consœur PimEyes spécialiste de la recherche faciale.
La plateforme exploite des algorithmes complexes qui analysent l’image téléchargée et la comparent à un index interne de données visuelles en ne repérant que les meilleures correspondances. Les résultats sont intelligemment classés en plusieurs catégories distinctes :
Par ailleurs, Lenso.ai, grâce à une collaboration avec la société singapourienne EyeMatch, a lancé un outil de reconnaissance faciale particulièrement performant. Sur ce terrain, Lenso.ai n’est pas le seul.
Après neuf mois de tests auprès de la communauté des utilisateurs de Web of Science, Clarivate vient d’annoncer le lancement de son assistant de recherche dopé à l’IA pour la recherche sur le contenu de Web of Science Core qui propose 92 millions de références dans le domaine scientifique depuis le début du 20° siècle.
Nous avons testé ce nouvel outil qui illustre l’investissement des serveurs et agrégateurs dans des possibilités de recherche nouvelles sur leur fonds grâce à l’intelligence artificielle.
L’écran d’accueil est commun avec la recherche classique sur le Web of Science. L’accès se fait par un clic sur « Search assistant » qui donne accès à la nouvelle interface. On se voit alors proposer quatre options qui correspondent à autant de problématiques.
La première baptisée « Start a new search by asking a question » permet de lancer une question spécifique en langage naturel. « C’est une méthode intuitive pour commencer une exploration, particulièrement utile pour les chercheurs qui ne sont pas familiers avec les techniques de recherche avancées. »
La seconde, « Understand a topic » a pour objectif d’offrir rapidement une vue d’ensemble structurée d’un sujet spécifique. C’est un excellent point de départ pour se familiariser rapidement avec un nouveau domaine de recherche ».
Interview de JEAN-PIERRE LARCHER, membre du collège des Emérites - Académie de l’Intelligence Economique.
Nous avons souhaité interviewer Jean-Pierre Larcher, un pionnier de l’intelligence économique et du développement territorial, dont les réflexions sur les défis contemporains et l’importance de la souveraineté économique nous apparaissent essentielles pour éclairer les enjeux actuels des collectivités.
Jean-Pierre Larcher compte plus de quarante ans d’expérience dans la gestion de projets liés à l’intelligence économique et au développement territorial, aussi bien en France qu’à l’international. Son parcours impressionnant inclut la direction de projets innovants tels que « Maîtrise de l’Information » et la contribution à l'élaboration de la Charte partenariale entre l'Etat et Régions de France sur l’Intelligence Économique Territoriale.
Depuis 2016 jusqu’à récemment, M. Larcher a co-piloté la Mission Stratégie Prospective Intelligence Économique (SPIE) de la Région Normandie, une initiative pionnière au sein d’une collectivité régionale. En formant des réseaux d’acteurs économiques régionaux et en lançant des programmes novateurs, il a contribué à faire de la Normandie un leader national en intelligence économique.
DERWENT qui réécrit les titres et les abstracts de brevets depuis des dizaines d’années affirme que sa pratique est plus performante qu’une utilisation d’une IA.
La banque de données DWPI (Derwent World Patents Index) commercialisée aujourd’hui par Clarivate a été créée il y a plus de 60 ans et a une grande notoriété auprès des spécialistes de la recherche d’information brevet.
DWPI a longtemps été la principale source utilisée par les professionnels.
Sa valeur ajoutée tient en plusieurs points :
OpenAI continue d’innover à une vitesse impressionnante. On se souvient que ce n’est qu’en mai 2024 qu’OpenAI a lancé GPT-4o.
Le 12 septembre 2024 dernier, le suspense derrière le projet du nom de code Strawberry a été levé avec le lancement d’une nouvelle famille de modèles LLM appelée la o1, dont la caractéristique clé est la capacité de raisonnement avancé.
La famille OpenAI o1 comprend deux principaux modèles : o1-preview, conçu pour les tâches de raisonnement avancé et résolution de problèmes complexes, et o1-mini, optimisé pour des tâches spécifiques telles que le codage avec un coût réduit.
Contrairement aux modèles précédents qui généraient des réponses principalement basées sur des associations statistiques, o1 utilise un processus de « chaîne de pensée : les problèmes complexes sont décomposés en étapes logiques, et les temps de réflexion du modèle sont ajustés dynamiquement en fonction de la complexité de la tâche.