Blog Article


François Duranton
CEO et cofondateur
Ceux qui me connaissent savent que je préfèrerais parler de transition de modèles économique, de décroissance, de robustesse et de sobriété, que d'Intelligence Artificielle. Mais comment réfléchir aux tendances 2026 sans évoquer ce mot magique, qui inonde nos cerveaux depuis quelques années ?
Avec 25 ans d'e-commerce dans les pattes, voici ce que je pense de la situation, et de la trajectoire 2026 pour l'IA.
La maîtrise du slop est indispensable
Le slop, c'est l'abondance exponentielle de contenus sans intérêt générés par des IA. Un terme récent mais qui a déjà sa page wikipedia… (source) Le slop détruit la confiance dans les contenus. St Thomas croyait ce qu'il voyait, nous allons devoir apprendre à nous méfier d'abord de ce que nous voyons. C'est tellement inquiétant pour la Big Tech que Satya Nadella, le boss de Microsoft, a pris la parole en ce début janvier pour exprimer ses craintes. (source)
La maîtrise de la consommation énergétique est indispensable
Le PDG d’IBM a exprimé en décembre un scepticisme marqué sur le modèle économique de l’IA, à cause des investissements massifs pour la production d’énergie (1 GigaWatt = 1 md$ de CAPEX), le besoin de renouvellement fréquent des composants, le plafonnement des gains énergétiques sur les nouveaux modèles, et l’absence de revenus suffisants à mettre en face. Il préconise un travail sur la sobriété des modèles et des investissements plus mesurés. Les limites physiques de ce monde s’imposent à tous. (source)
Agentic Commerce : l'IA a un ratio consommation / valeur très inégal selon les cas d'usage
Ce que j'observe, c'est une vraie différence de valeur entre les cas d'usage front et back, en commerce agentique.
En backoffice, l'IA c'est du RPA 2.0 : un bon outil pour gagner du temps sur des processus qui doivent impérativement être maîtrisés au préalable par ceux qui l'utilisent.
Mapping de données catalogues
Aide à la rédaction SEO / GEO
Aide au traitement d'images (resizing, détourage, mise en ambiance…)
Aide à l'analyse de données
Aide au traitement des requêtes service client
Aide au dev, aux tests, à la recette
Etc.
Dans ces cas d'usage, l'IA coûte assez peu cher (c'est inclus dans les licences des principaux éditeurs e-commerce), consomme assez peu d'énergie (ça ne dépend pas du nombre de clients ou de visiteurs), et fait gagner du temps.
En front-office en revanche, je suis très dubitatif.
Certains cas d'usage sont connus depuis 15 à 20 ans et sont plus de l'algorithmie / machine learning que de la GenAI : mise en avant de produits recommandés, automatisation des upsell, cross sell, mise en avant de contenus pertinents…
En revanche, le shopping assistant (acheter à travers une conversation avec un agent) pose plusieurs questions, que nous avions abordées lors d'un test récent (source) des navigateurs Atlas (OpenAI) et Comet (Perplexity) :
Le taux d'erreur et d'hallucination réduit au fil du temps
Mais le délai de traitement sur des conversations complexes peut s'étirer sur de longues minutes, parfois jusque 20 minutes (pour une idée de recette chez Carrefour, puis aller jusqu'au paiement).
Pendant ces longues minutes, notre esprit impatient s'agace. A moins d'être sur un cas d'usage impliquant (par exemple essayer de choisir un grand voyage à faire pour dans 6 mois), on est encore très loin d'une expérience qui va remplacer les cas d'usage performants actuels (moteurs de recherche quasi instantanés, listes d'achats prédéfinis, mises en avant algorithmiques…).
Beaucoup d'e-commerçants déploient sur leur propre site des agents conversationnels intelligents. Il se trouve que des agents sont très coûteux : chez les grands éditeurs de CMS e-commerce que nous avons récemment interrogés sur des appels d'offres, pour un chiffre d'affaires en ligne d'un e-commerçant autour de 10M€, chaque conversation coûte environ 1€… Alors qu'on ignore encore le taux de conversion moyen de ce canal d'achat.
Trafic et acquisition : ce n'est pas mûr
Va-t-on voir en 2026 le marché du media se renverser, dépenser de plus en plus en acquisition chez OpenAI (qui n'a pas encore de modèle publicitaire mature) et de moins en moins chez Meta ou Google ? J'y crois assez peu, pour les raisons évoquées plus haut. Ça ne pourra se produire que si :
Les agents sont plus rapides, plus pertinents, moins gourmands en énergie
Le modèle publicitaire est mature et supportable par les annonceurs
Les taux de conversion par univers de besoin sont correctement décryptés et majoritairement meilleurs que les canaux historiques
Ça viendra évidemment, mais je pense qu'il faudra plutôt 24 à 36 mois pour une bascule sensible, laquelle restera hypothéquée par la consommation énergétique. Si les coûts d'infrastructure restent ce qu'ils sont, l'achat de trafic via les agents sera peu rentable.
Une intoxication salutaire ?
Pour conclure, j'ai un peu d'espoir, parce que je suis un idéaliste : le slop, s'il n'est pas enrayé, va peut-être conduire à tellement pourrir le web, les réseaux sociaux, les medias, que des conséquences très positives pourraient survenir :
Législation plus protectrice pour les jeunes
Baisse d'usage des réseaux sociaux et des écrans
Revalorisation de ce qui est "réel" (les magasins, les vrais rdvs, la nature, l'analogique…), de ce qui est payant mais certifié (medias, art…).
On peut aussi mettre un billet sur les boîtes comme Trustpilot et les acteurs du watermarking, qui deviendront probablement un tiers de confiance obligé pour attester du caractère authentique des contenus proposés.

François Duranton
CEO et cofondateur