Impossible aujourd’hui d’occulter la question de l’intelligence artificielle en lien avec la veille et la recherche d’information. Deux conférences d’i-expo portaient d’ailleurs exclusivement sur cette thématique et l’on retrouvait cette question en filigrane de toutes les autres tables-rondes.
Si pour certains professionnels, elle peut être perçue comme une menace, avec des machines et algorithmes capables de remplacer les pros de l’information, pour la majorité des experts présents lors du salon, l’IA est considérée comme une alliée au service de la veille et du veilleur « augmenté », capable d’automatiser certaines tâches chronophages et à faible valeur ajoutée.
Lire aussi :
Quelles pratiques de veille dans les entreprises françaises en 2019 ?
Quel rôle pour les pros de l’info vis à vis de la désinformation ?
Utilisateurs et experts métiers : l’humain au cœur du dispositif de veille
A l’heure des livrables augmentés
De nouvelles formes de veille au service de l’image des entreprises
Comme nous avons pu le voir dans le précédent numéro de BASES, les outils de recherche et de veille professionnels (agrégateurs de presse, bases de données, plateformes de veille, etc.) ont de plus en plus recours à l’IA dans leurs produits.
Mais nous avons pu découvrir également à l’occasion de ces trois jours que des services d’information et de veille au sein des entreprises développaient en interne leurs propres outils à base d’IA pour optimiser et enrichir leurs processus de veille et de recherche.
Parmi les exemples cités lors des différentes conférences sur la place de l’IA dans les produits du marché ou développés en interne, on retrouvait donc l’utilisation classique de l’IA pour :
Et quels que soient les exemples et témoignages fournis par les différents intervenants, on retrouvait toujours cette nécessité d’une supervision humaine finale car les résultats fournis par la machine ou l’algorithme sont généralement imparfaits et contiennent toujours une part d’erreur.
Tous se sont accordés à dire qu’on ne peut prendre pour argent comptant les résultats et analyses fournies par une machine.
D’où le besoin de transparence, de documentation, de justification et de contrôle de toute solution à base d’intelligence artificielle dans les entreprises.
C’est ainsi qu’Olivier Stoband, Directeur de Projet Conformité Digital Innovation Office à la Société Générale indiquait que dans le cadre du projet de développement d’un algorithme de détection des « negative news » en interne, il était dans l’obligation de documenter et justifier dans les détails le fonctionnement de l’algorithme et de ses choix auprès des autorités régulatrices mais également de toute sa hiérarchie.
Déjà abonné ? Connectez-vous...