Digital Asset Management et IA en 2026 : menaces et opportunités liées au raisonnement probabiliste

Cet article a été traduit de digitalassetmanagementnews.com

Au cours de l’année 2025, l’enthousiasme autour de l’IA et de son potentiel de transformation du Digital Asset Management (DAM) a été considérable. Si ce potentiel est indéniable, force est de constater qu’en ce début d’année 2026, de nombreuses limites sont largement sous-estimées — voire ignorées — tant par les utilisateurs que par les éditeurs.


Dans cet article, je souhaite examiner plusieurs de ces problématiques, en me concentrant en particulier sur les plus fondamentales, puis extrapoler certaines conséquences possibles pour le DAM et l’IA.

Le problème du raisonnement probabiliste de l’IA

Comme la plupart des lecteurs le savent, l’IA générative repose fondamentalement sur le raisonnement probabiliste. Autrement dit, elle « parie » sur le résultat le plus probable à partir de schémas observés dans les données. Les écarts-types — que beaucoup visualisent sous la forme de courbes en cloche — jouent un rôle central dans la conception de nombreux systèmes d’IA.

Comme l’ont souligné d’autres analystes, les mathématiques qui sous-tendent les technologies d’IA ont également été utilisées pour évaluer (ou plutôt mal évaluer) les produits dérivés lors de la crise financière de 2008. Ce constat met en lumière des problèmes structurels profonds qui ne disparaîtront pas simplement en rédigeant de meilleurs prompts : ils sont inscrits dans l’ADN même des systèmes d’IA.

En tant qu’être humain, je peux décider si je souhaite faire appel à mon intuition ou à une logique rigoureuse pour accomplir une tâche. Les outils d’IA générative, eux, semblent incapables de faire cette distinction. Pour utiliser un raisonnement logique déductif, ils doivent être dotés de modules spécifiques leur permettant de reconnaître et de traiter ces cas.


On l’a clairement observé dans les premières versions de ChatGPT, incapables de réaliser correctement des calculs mathématiques : il a fallu leur ajouter des extensions dédiées pour qu’elles reconnaissent l’arithmétique et sachent répondre à ce type de requêtes. Ce schéma se répète pour de nombreuses autres tâches logiques.

Il existe un problème persistant quant à la capacité de ces outils à décider quand et comment utiliser des capacités logiques conventionnelles.


À titre d’exemple, j’ai demandé à un outil d’IA de renuméroter séquentiellement les chapitres d’un document long sur lequel je travaillais. C’est une tâche monotone mais essentielle, légèrement chronophage, et qui ne justifie ni l’écriture de code ni l’intervention d’un tiers. C’est typiquement le genre de tâche pour laquelle l’IA devrait être parfaitement adaptée.


Pourtant, le système a passé près de dix minutes à tenter d’écrire du code Python personnalisé pour lui-même, avant d’abandonner et d’annoncer qu’il ne pouvait pas effectuer la tâche. J’ai finalement renuméroté le document moi-même, après avoir perdu du temps à analyser l’échec de l’IA.

Pour un humain, ce type de tâche est agaçant et demande de la concentration, mais elle n’est pas difficile. Ce qu’elle requiert avant tout, c’est de la motivation et un minimum d’endurance mentale. Cela semble encore poser problème à l’IA, et je soutiens que cela est directement lié à son raisonnement probabiliste, où les résultats sont prédits plutôt que déduits.


L’IA semble capable de gérer soit la probabilité, soit la logique, mais elle a des difficultés à combiner les deux de la manière dont la plupart des êtres humains y parviennent (même s’ils n’en ont pas toujours envie).

Les défenseurs de ces outils affirmeront que le problème vient du prompt et qu’en l’améliorant, un meilleur résultat apparaîtra presque miraculeusement. Le fait demeure que si vous demandez à un humain d’effectuer cette tâche, il la réalisera correctement sans nécessiter des explications extrêmement détaillées.


Le seuil d’exigence en matière de communication est bien plus élevé avec l’IA qu’avec les humains, ce qui crée un niveau de friction fréquemment sous-estimé.

Lorsqu’on applique ces principes aux tâches DAM quotidiennes auxquelles les Digital Asset Managers sont habitués, l’imprévisibilité des résultats devient problématique. L’IA pourrait non seulement ne pas faire gagner du temps, mais potentiellement en faire perdre, en multipliant les tentatives infructueuses d’automatisation.


Certes, les humains peuvent apprendre ce qui fonctionne ou non, mais cela ajoute une couche de complexité supplémentaire, qui renforce le besoin de contrôle humain — et non l’inverse.

Pourquoi le progrès technologique n’est pas inévitable

Face à ce type de constats, la réponse standard de nombreux technologues est que la situation va « inévitablement » s’améliorer.


Selon eux, « ils » — quels qu’ils soient — continueront à améliorer indéfiniment les outils, jusqu’à éliminer tous ces problèmes par la seule force combinée de la volonté et d’investissements financiers sans limite.

Mais le déterminisme technologique n’est pas aussi inéluctable qu’il le prétend. Prenons l’exemple du transport aérien. Il y a trente ou quarante ans, des avions supersoniques comme le Concorde permettaient de voyager plus vite que le mur du son. Aujourd’hui, le Concorde a été retiré du service et il n’est plus possible de voyager commercialement à vitesse supersonique.


Les compagnies aériennes ont privilégié l’accessibilité tarifaire à la performance fonctionnelle, car cela représentait un impératif économique plus important pour leurs actionnaires. Les catastrophes, comme le crash de l’aéroport de Paris en 2000, ont accéléré ce processus, mais la raison fondamentale reste économique : proposer des vols à bas coût. Le transport supersonique a donc été mis de côté, malgré ses avantages pour les passagers capables d’en assumer le coût.

Un scénario similaire pourrait se produire avec l’IA. Les organisations pourraient préférer des solutions technologiques moins avancées, mais plus fiables et moins coûteuses, à des solutions de pointe, imprévisibles et onéreuses.


Cela pourrait être particulièrement vrai dans le DAM, où de nombreuses tâches sont loin d’être routinières. Si la complexité technique est trop élevée et la fiabilité trop faible, les utilisateurs finaux pourraient tout simplement ne pas utiliser les outils d’IA proposés par les éditeurs.

Cela s’est déjà produit avec la reconnaissance d’images, dont le taux d’adoption est resté faible. Il est possible que le même phénomène se reproduise avec les LLM comme ChatGPT, Claude, etc., dans le contexte du Digital Asset Management.

La contrainte énergétique et son impact sur l’IA

Un autre enjeu macroéconomique majeur pour l’adoption de l’IA concerne l’énergie, c’est-à-dire l’électricité nécessaire pour effectuer les calculs statistiques complexes requis par l’IA générative.

La demande en électricité devrait augmenter de manière exponentielle, au point que, compte tenu des capacités actuelles, cela entraînerait des coupures de courant et un rationnement énergétique d’ici 2027. Un tel scénario semble peu probable, tout comme l’idée d’une augmentation rapide et massive des capacités de production, en particulier dans de nombreux pays occidentaux développés.


La solution la plus vraisemblable sera une hausse des coûts de l’électricité afin de réduire la demande. Les fournisseurs d’IA ne pourront absorber ces surcoûts que jusqu’à un certain point avant de les répercuter sur les utilisateurs finaux — sans même aborder l’impact environnemental de cette situation.

Si l’on accepte volontiers qu’un outil d’IA résume gratuitement un long e-mail ou un livre, la perspective de devoir payer, ne serait-ce que quelques centimes, rendra les utilisateurs bien plus sélectifs quant aux usages de l’IA. Cela pourrait freiner l’adoption et réduire l’utilisation globale de ces technologies.

Un problème plus large se profile également : si les consommateurs d’électricité voient leurs factures augmenter en raison de la demande accrue des entreprises technologiques pour alimenter leurs fonctionnalités d’IA, un mouvement de rejet pourrait émerger. Beaucoup se demanderont pourquoi ils devraient subventionner l’IA au détriment de besoins essentiels comme l’éclairage ou le chauffage.


Les « hallucinations » peuvent être tolérées lorsque l’outil est gratuit, mais si l’usage devient payant, l’exigence de fiabilité et de précision augmentera fortement. Si ces attentes ne sont pas satisfaites — et la tendance actuelle des LLM n’est pas encourageante à cet égard — il faut s’attendre à une désillusion croissante vis-à-vis de l’IA.

Ce phénomène commence d’ailleurs déjà à se manifester. Google Workspace a récemment annoncé une hausse de ses tarifs, en invoquant notamment l’introduction de fonctionnalités d’IA. Et Google n’est pas un cas isolé.


La question que se poseront de nombreux utilisateurs est simple : pourquoi payer pour des fonctionnalités qu’ils n’utiliseront peut-être pas ? La pression augmentera pour justifier les investissements dans l’IA, surtout si les bénéfices deviennent marginaux et que les limites structurelles persistent.

Ces dynamiques se répercuteront inévitablement sur les outils DAM. Il semble peu probable que les éditeurs puissent éviter de répercuter ces coûts sur leurs clients — et reste à savoir si ces derniers accepteront ces augmentations, en particulier en cas de rejet plus large de l’IA.

Menaces et opportunités de l’IA pour le DAM en 2026

Un enjeu plus spécifique au DAM et à l’IA concerne les métadonnées. En 2024 et 2025, certains affirmaient que l’IA rendrait toute saisie manuelle de métadonnées obsolète. Des analyses plus réalistes ont depuis reconnu que, si une opportunité existe, une gouvernance pilotée par l’humain reste indispensable.

L’une des prises de conscience majeures chez les utilisateurs les plus avertis (et chez certains éditeurs) est la nécessité de rendre les métadonnées DAM plus structurées, et non moins.


Concrètement, cela implique un recours accru aux vocabulaires contrôlés et aux architectures de l’information telles que les taxonomies ou les ontologies — ces dernières connaissant actuellement un regain d’intérêt grâce à l’IA.

Les bénéfices sont doubles.


Premièrement, moins un outil d’IA (comme un LLM) a de travail analytique à effectuer sur un jeu de données, plus ses résultats sont susceptibles d’être fiables. Cela est valable pour toutes les formes d’IA : des problèmes plus ciblés sont plus faciles à résoudre, car ils impliquent moins de points de données à évaluer.

Deuxièmement, comme évoqué précédemment, le coût d’utilisation de l’IA va augmenter. Un jeu de données composé d’indices structurés (numériques) est bien moins coûteux à traiter qu’un grand volume de texte non structuré. Il est donc à la fois plus fiable et moins cher — deux critères qui deviendront probablement déterminants pour les utilisateurs DAM en 2026.

Pour les éditeurs, cela signifie que ceux qui ont conçu leurs DAM en partant du principe que les structures classiques de métadonnées (taxonomies, etc.) deviendraient inutiles risquent de subir un sérieux retour de bâton lorsqu’ils devront les réintroduire.
Ces capacités sont complexes à implémenter, mais c’est un sujet que les éditeurs auraient dû traiter depuis longtemps. Et cette problématique ne disparaîtra pas ; elle deviendra au contraire de plus en plus critique.

Pour les utilisateurs finaux, cela souligne non seulement l’importance de choisir des outils dotés de capacités avancées de métadonnées structurées, mais aussi capables d’exploiter l’IA pour les alimenter et les analyser. Ce qui nous amène naturellement au point suivant.

L’essor de l’IA composable

L’un des concepts les plus intéressants apparus récemment est celui de l’IA composable. Dans ce modèle, le DAM envoie une série de prompts ciblés à un LLM afin de renseigner des champs structurés prédéfinis.
Il devient alors possible de faire générer par l’IA tout ou partie des métadonnées correspondant à des champs contrôlés, en sélectionnant la valeur la plus appropriée pour chaque asset.

Comme chacun le sait désormais, les LLM font des erreurs (je refuse d’ailleurs d’employer le terme « hallucination » pour décrire ce comportement). Cela implique que chaque composition automatisée doit être soigneusement vérifiée et validée par des humains.
Qui mieux placés pour accomplir cette tâche que les Digital Asset Managers — de véritables êtres humains ? Une fois encore, la technologie doit jouer un rôle de soutien au service des personnes.

Le triptyque « People, Process, Technology », qui traverse toute l’histoire du DAM, n’a pas disparu avec l’IA. Il est devenu encore plus essentiel.

Conclusion

Le rôle de l’IA est désormais clairement établi, tant dans le monde en général que dans le Digital Asset Management. Ceux qui espèrent qu’elle disparaîtra sont aussi myopes que ceux qui pensent qu’elle résoudra tous les problèmes.

Comme indiqué précédemment, la technologie des LLM repose sur des paris probabilistes. Tout parieur expérimenté vous dira que miser systématiquement sur le favori du bookmaker est la manière la plus sûre de perdre de l’argent.


Dans ce contexte, les LLM peuvent être vus comme une forme industrialisée de paris. Et comme pour tout pari, il est rarement judicieux d’accepter sans esprit critique la probabilité la plus élevée associée à la cote la plus basse, sans une analyse approfondie de sa juste valeur.

L’IA offre un potentiel considérable pour le DAM. Mais elle exigera plus que jamais de la créativité, de la prudence et une attention extrême aux détails.
Ceux qui échoueront à adopter cette approche risquent de payer la facture au prix fort. À l’inverse, ceux qui sauront faire preuve d’anticipation, de pensée critique et d’un usage mesuré de l’IA là où elle apporte une réelle valeur pourraient en tirer des bénéfices significatifs.

Les éditeurs comme les utilisateurs DAM doivent donc réfléchir avec soin à leurs choix et miser sur les bonnes stratégies d’IA pour faire partie de cette seconde catégorie.

No items found.