2026 consacre le passage d’une « IA qui assiste » à une « IA qui travaille ». Ce basculement, largement commenté, redéfinit concrètement la place de l’humain dans l’activité professionnelle. Nos auteurs en décryptent les mécanismes dans ce nouveau numéro.
Véronique Mesguich cartographie un paysage en pleine recomposition : derrière le foisonnement des termes (GPTs, Gems, Artefacts…), elle structure quatre niveaux fonctionnels (espaces persistants, assistants, agents, connecteurs) pour mieux distinguer ce qui relève de l'évolution d'interface de ce qui constitue une rupture fonctionnelle véritable.
Ulysse Rajim retrace la mutation fulgurante des derniers mois : du copilote supervisé à l’« employé virtuel ». Il analyse l’essor d’OpenClaw, la course des plateformes (Claude Cowork, Frontier, Copilot Cowork), les trois piliers techniques (raisonnement, outils, mémoire) et les vulnérabilités qui les accompagnent.
Ces deux premières contributions nous inspirent trois constats.
L’autonomisation IA se mesure désormais au travail humain. Les agents planifient, itèrent et corrigent pendant des heures, voire des jours. Les nouveaux benchmarks du secteur (METR, qui mesure les horizons temporels d'autonomie, et GDPval, qui évalue la performance sur tâches réelles) se recalibrent désormais sur le travail humain comme étalon de référence.
Mais ces métriques évaluent surtout l’exécution sur des tâches bien définies. Elles capturent mal la redéfinition du problème, l’ambiguïté stratégique, le jugement tacite, la vision cohérente, et sous-estiment la fiabilité exigée en contexte critique. Le risque: confondre exécution prolongée et compétence globale. Plus grave, une IA imparfaite est déployée massivement dès qu’elle devient rentable, la logique court-termiste primant sur la fiabilité.
L’identité professionnelle est ébranlée. Tant que l’humain finalise, il garde le sentiment d’avoir « fait » le travail. Dès que la tâche est déléguée, la dépossession menace. Comment préserver créativité, intuition et responsabilité morale quand la machine prend en charge une part croissante des tâches ?
Les risques systémiques s’accumulent. Injections de prompts, instances exposées, coûts explosifs, responsabilité juridique floue : les plateformes tentent d’encadrer le chaos, mais la gouvernance reste largement en chantier.
Christian Vigne part d’un constat : l’infinité des possibles plonge les entreprises entre angoisse et conformisme. Il explore avec elles l’imagination comme levier stratégique. L’imagination n’est pas une faculté que l’IA remplace, mais qu’elle peut augmenter : en générant des surprises, en bousculant les modèles mentaux, en ouvrant des chemins alternatifs.