Blog Article


Hortense Carton
Consultante
L’arrivée des navigateurs boostés à l’IA, capables d’interagir directement avec des sites web ouvre un nouveau champ d’expérimentation pour l’intelligence artificielle. Ces solutions ne se contentent plus de générer des réponses : elles naviguent, cliquent, remplissent des formulaires et construisent des paniers d’achat à notre place.
Cependant, sans abonnement payant, il reste impossible d’accéder à la pleine puissance de ces outils. Pour en mesurer concrètement les capacités, nous avons comparé deux acteurs phares : l’Agent ChatGPT (OpenAI, aussi appelé Atlas) et Comet (Perplexity), à travers plusieurs cas d’usage, du bricolage à la réservation de voyage.
À noter : la solution ChatGPT Agent est aujourd’hui limitée à une utilisation sur Mac (MacOS récent et sans processeur Intel), ce qui restreint encore son accessibilité pour les utilisateurs sous d’autres environnements.
Côté ergonomie, ChatGPT Agent a l’avantage de préciser le temps d’exécution estimé, une transparence absente de l'agent Comet de Perplexity, qui montre encore quelques limites techniques (menus déroulants, listes de choix).
Création de compte : entre fluidité et vigilance
Les deux agents peuvent créer un compte utilisateur sur différents sites à partir d’informations fournies par l’utilisateur, allant jusqu’à proposer un mot de passe sécurisé.
Cette simplicité d’exécution interroge toutefois sur un point essentiel : que deviennent les données personnelles transmises à l’agent ?Un point d’attention nécessaire avant d’envisager une utilisation à grande échelle.
Leroy Merlin : une approche efficace mais inégale
Prompt :
« Je suis un bricoleur novice, je souhaite isoler par l'intérieur mon salon de 12 m². De quels matériaux ai-je besoin ? Réalise-moi un panier avec un isolant de R=5. »
Agent (ChatGPT)
Temps d’exécution : 6 minutes
Création d’un panier complet, ajusté à la superficie renseignée
Calcul automatique des quantités nécessaires

Comet (Perplexity)
Temps d’exécution : 14 minutes
Création d’un panier équivalent
Recommandation plus large, incluant jusqu’à l’enduit de finition

Les deux agents parviennent à un résultat satisfaisant, mais la précision du prompt s’avère déterminante : sans instruction explicite, ni l’un ni l’autre ne pense à inclure les rails ou la visserie.
Comet pousse davantage la logique de vente additionnelle, mais avec un temps d’exécution sensiblement plus long.
Nous avons poursuivi l’expérience jusqu’à l’étape de paiement. Sur ce point, aucun des deux agents n’a été capable d’identifier ou de proposer le moyen de paiement habituel lié à l’historique d’achat (en l’occurrence une carte bancaire déjà utilisée en magasin). L’automatisation s’interrompt donc avant la finalisation complète de la commande.
Castorama : des écarts de robustesse
Avec le même prompt, les résultats divergent :
ChatGPT Agent parvient à constituer un panier cohérent, tandis que Comet échoue à exécuter la requête, ne parvenant pas à accéder à la marketplace.
Cette différence illustre une maturité technique encore inégale : ChatGPT Agent sait contourner certaines limites du site, là où Comet reste dépendant d’une navigation standard.
Carrefour : 10 à 20’ pour une recette
Prompt :
« Je souhaite réaliser une quiche lorraine pour 4 personnes sans gluten. Réalise-moi le panier et crée le compte. »
Agent (10 minutes)
Bonne interprétation des contraintes alimentaires
Sélection pertinente des produits et quantités
Identification du magasin le plus proche selon le Code postal sélectionné
Ajustement des quantités dans le panier pour atteindre les promotions non proposées
Comet (20 minutes)
Résultats similaires, avec un biais vers les produits les moins chers
Même oubli sur les offres promotionnelles
Les deux agents fournissent des paniers cohérents, mais la dimension économique (promotions, remplacements automatiques) reste à renforcer.
Leclerc : réutiliser un panier existant
Prompt :
Depuis un compte possédant déjà un historique, nous avons demandé à la solution de reproduire un ancien panier.
ChatGPT Agent utilise intelligemment la fonctionnalité native « Repasser commande » du site.
Comet, en revanche, reconstruit le panier manuellement sans tirer parti de l’historique, ni proposer de produits de substitution, une perte de temps notable.
Nous avons également testé la capacité des agents à finaliser la commande. Dans les deux cas, ils ont pu aller jusqu’à la sélection du créneau de retrait et utiliser le moyen de paiement préenregistré sur l’ordinateur, validant ainsi la commande sans erreur.
Agent démontre ici une meilleure compréhension du contexte et des fonctionnalités du site.
Kiabi : trouver une tenue de fête
Prompt :
« Je suis une femme qui souhaite trouver une tenue pour Noël (short et chemisier en taille 36/M). »
ChatGPT Agent (4 minutes)
Compréhension immédiate du style “fête”
Sélection des bonnes tailles et adaptation au guide du site
Test de l’ajout d’un code promo fonctionnel mais non concluant (conditions non remplies)
Comet (25 minutes)
Propositions pertinentes, mais nécessitant des validations intermédiaires
Blocage partiel lors de la recherche du short
Les deux agents identifient des produits similaires, mais ChatGPT Agent se démarque par sa rapidité et stabilité d’exécution.
Club Med : réserver un voyage
Prompt :
« Je souhaite réserver un séjour en Martinique du 7 au 14 février au départ de Paris. »
ChatGPT Agent (3 minutes)
Exécution rapide et critères respectés
Propositions alternatives sur d’autres sites en cas d’indisponibilité du séjour sur la période donnée
Par défaut, considère un voyageur unique si le prompt ne le précise pas
Comet (3 minutes)
Critères respectés mais erreurs temporelles (propose février 2025 au lieu de 2026)
Suppose deux voyageurs par défaut
Aucune alternative proposée
ChatGPT Agent se montre plus flexible et capable de contextualiser, là où Comet (Perplexity) s’en tient à une lecture littérale de la demande.
Vinted : la recherche de seconde main
Prompt :
« Je cherche un trench ceinturé Zara, neuf avec étiquette. »
ChatGPT Agent :
Trois propositions pertinentes, conformes à la marque et à l’état demandé, en un temps réduit.
Comet :
Il présente trois options aux prix proches, puis recommande la plus adaptée selon les besoins après une recherche rapide.
Conclusion : le compte n’y est pas encore…
Ces tests mettent en lumière deux approches de l’automatisation :
ChatGPT Agent s’impose par sa stabilité, sa capacité à interpréter le contexte et à s’adapter aux fonctionnalités des sites.
L’agent Comet de Perplexity, plus exploratoire, va parfois plus loin dans la recherche de produits ou la vente additionnelle, mais reste moins fluide et beaucoup plus lent.
Au-delà des performances, ces résultats rappellent que l’efficacité d’un agent dépend autant de sa technologie que de la qualité du site sur lequel il opère.
Lorsqu’il s’agit d’un besoin d’accompagnement ou de recherche guidée, un équivalent digital du « personal shopper », ces outils se révèlent particulièrement pertinents. En revanche, pour des usages simples ou très structurés (comme la création d’un panier Leroy Merlin à partir de zéro), l’intervention humaine demeure plus rapide et plus fiable.
À mesure que ces agents s’affineront, leur intégration dans les parcours clients pourrait profondément transformer l’expérience d’achat en ligne. Le défi reste désormais d’assurer la sécurité des données, la transparence des actions et la contextualisation des recommandations, trois piliers indispensables à leur adoption à grande échelle.

Hortense Carton
Consultante