-->
{"@context":"https://schema.org","@type":"FAQPage","mainEntity":[{"@type":"Question","name":"Combien de temps dure un appel d'offres TMS sérieux ?","acceptedAnswer":{"@type":"Answer","text":"Entre 3 et 6 mois entre le démarrage du cadrage interne et la signature du contrat. Les projets plus rapides exposent à des choix mal informés, les projets plus longs consomment inutilement du temps interne et risquent de perdre l'engagement des parties prenantes."}},{"@type":"Question","name":"Combien d'éditeurs faut-il mettre en short list ?","acceptedAnswer":{"@type":"Answer","text":"3 à 5 éditeurs en short list est l'optimum. En dessous de 3, la comparaison n'a pas de sens. Au-delà de 5, le comité projet s'épuise en démos répétitives et la décision se brouille."}},{"@type":"Question","name":"Faut-il faire un appel d'offres formel ou peut-on procéder de manière plus souple ?","acceptedAnswer":{"@type":"Answer","text":"Pour les TPE et PME aux besoins simples, une démarche souple (3 démos, choix sur impressions) peut suffire. Pour les ETI multi-sites, multi-OPCO et grandes entreprises, un processus formel (cahier des charges écrit, grille d'évaluation pondérée, bac à sable, prises de référence) est indispensable pour sécuriser la décision."}},{"@type":"Question","name":"Comment pondérer les critères dans la grille d'évaluation ?","acceptedAnswer":{"@type":"Answer","text":"Une pondération équilibrée pour une ETI : couverture fonctionnelle 30%, expérience utilisateur 20%, intégrations 15%, accompagnement humain 15%, pérennité et roadmap 10%, tarification 10%. Cette pondération privilégie l'usage et la pérennité plutôt que le prix court terme. Elle peut être ajustée selon le contexte (par exemple plus de poids aux intégrations si l'écosystème SI est complexe)."}},{"@type":"Question","name":"Que faire si un éditeur refuse d'ouvrir un bac à sable ?","acceptedAnswer":{"@type":"Answer","text":"Le refus d'ouvrir un bac à sable à un finaliste de short list est un signal négatif fort. Soit l'outil est plus complexe à manipuler que la démo le laisse penser, soit l'éditeur n'a pas le processus mature. Dans les deux cas, c'est un critère de tri à part entière."}},{"@type":"Question","name":"Comment éviter que la décision se fasse à l'instinct du sponsor DRH ?","acceptedAnswer":{"@type":"Answer","text":"La grille d'évaluation pondérée, remplie par chaque évaluateur indépendamment puis consolidée, est l'outil principal. Le scoring chiffré force le débat sur des critères précis plutôt que sur des impressions globales. Le rôle du sponsor DRH est de trancher en cas d'égalité, pas de décider seul."}},{"@type":"Question","name":"Faut-il négocier le tarif final ?","acceptedAnswer":{"@type":"Answer","text":"Oui systématiquement, mais sur les bons leviers. La négociation porte plus utilement sur la durée d'engagement (3 ans vs 1 an), les paliers de croissance (montée progressive vs périmètre figé), le périmètre d'accompagnement (jours de formation supplémentaires, présence terrain), que sur le tarif unitaire à la baisse. Les éditeurs sérieux préfèrent négocier la valeur ajoutée plutôt que le prix."}}]}
SimbelArrowBlog

Appel d'offres TMS 2026 : méthode et grille | Simbel

Guide de financement OPCO

Pourquoi un appel d'offres pour choisir un TMS ?

Choisir un logiciel de gestion de la formation (TMS) sans cadre formel est l'erreur la plus courante des projets de digitalisation formation. La conséquence : 6 à 12 mois plus tard, l'outil ne tient pas ses promesses, l'équipe formation se sent flouée, et le retour en arrière coûte cher.

L'appel d'offres TMS structure la décision. Il oblige l'entreprise à clarifier ses besoins avant d'écouter les commerciaux, à comparer les éditeurs sur des critères objectifs, et à engager les parties prenantes internes (DRH, finance, IT, opérations) dans un processus collégial.

Cet article décrit la méthode complète pour réussir un appel d'offres TMS en 2026 : les 6 étapes du processus, la grille d'évaluation à utiliser, les questions discriminantes à poser en démo, le scoring final et la négociation. Il s'adresse aux responsables formation, DRH et chefs de projet RH d'entreprises qui veulent industrialiser leur pilotage formation. Pour le contexte général sur les familles de TMS et les enjeux du choix, voir le hub Logiciel de gestion de la formation : guide 2026.

Les 6 étapes d'un appel d'offres TMS structuré

Un appel d'offres TMS sérieux dure entre 3 et 6 mois. Vouloir aller plus vite expose à un mauvais choix. Vouloir aller plus lentement consomme inutilement du temps interne.

Étape 1 : Cadrage interne (3 à 4 semaines)

Avant de contacter le moindre éditeur, l'entreprise doit aligner ses parties prenantes internes sur ce qu'elle attend de l'outil.

  • Cartographier les processus formation actuels : recueil des besoins, arbitrage, planification, suivi administratif, budget, reporting.
  • Identifier les douleurs prioritaires (ce qui ne fonctionne pas aujourd'hui) et les objectifs (ce qu'on attend du nouvel outil).
  • Constituer le comité projet : sponsor DRH, chef de projet formation, contrôle de gestion, IT, représentants opérationnels (managers, référents formation locaux).
  • Définir le périmètre : entités juridiques concernées, nombre de collaborateurs, géographies, langues, types de formation (interne, externe intra, externe inter).
  • Cadrer le budget cible et les contraintes calendaires (date go-live, date de fin du contrat actuel).

Étape 2 : Construction du cahier des charges (2 à 3 semaines)

Le cahier des charges TMS est le document de référence de l'appel d'offres. Il doit être structuré, exhaustif sans être verbeux, et formuler les besoins en termes mesurables. Voir la section dédiée plus bas.

Étape 3 : Long list et short list (2 semaines)

L'entreprise identifie 6 à 10 éditeurs potentiellement adaptés (long list), puis sélectionne 3 à 5 éditeurs pour la phase d'évaluation approfondie (short list). Le tri se fait sur des critères macro : positionnement de l'éditeur, taille des clients de référence, présence sur la France, modèle d'accompagnement.

Étape 4 : Démos et évaluation (4 à 6 semaines)

Chaque éditeur de la short list passe 2 à 4 sessions de démo de 1 à 2 heures. Les démos sont structurées (scénarios fournis par l'entreprise, pas démo libre), évaluées par grille commune, et impliquent toutes les parties prenantes. Voir les questions à poser plus bas.

Étape 5 : Bac à sable et références (2 à 3 semaines)

Les 2 ou 3 finalistes ouvrent un bac à sable (sandbox) à l'entreprise, qui le manipule pendant 1 à 2 semaines avec ses propres données ou cas d'usage. En parallèle, l'entreprise contacte 2 à 3 clients de référence par éditeur pour valider la qualité réelle du produit, du déploiement et du support.

Étape 6 : Décision, négociation et contractualisation (2 à 4 semaines)

Le comité projet établit le scoring final, choisit le finaliste, négocie les conditions commerciales (tarif, durée d'engagement, paliers de croissance, périmètre d'accompagnement) et contractualise. Le démarrage du déploiement suit dans la foulée.

Le cahier des charges TMS : structure type

Un cahier des charges TMS efficace tient en 15 à 25 pages. Au-delà, il devient illisible et les éditeurs n'y répondent que partiellement. Voici la structure éprouvée.

1. Présentation de l'entreprise et du contexte

Effectif total, structure juridique (entités, marques), activité, géographies, conventions collectives applicables, OPCO concernés, écosystème SI existant (SIRH, LMS, paie, signature électronique).

2. Contexte du projet

Situation actuelle (outil en place ou Excel), douleurs identifiées, objectifs du nouvel outil (mesurables : par exemple "diviser par 2 le temps administratif par session"), contraintes calendaires.

3. Périmètre fonctionnel attendu

Liste structurée des fonctionnalités attendues, distinguant : indispensables (must have), importantes (should have), souhaitables (nice to have). Couvrir : recueil des besoins, plan, sessions, budget multi-financeurs, conformité, reporting, intégrations.

4. Exigences techniques

SaaS vs on-premise, hébergement (France/UE pour conformité RGPD), SSO supporté, API attendues, niveau de sécurité (ISO 27001, hébergeur HDS si données sensibles), SLA de disponibilité.

5. Volumes et dimensionnement

Nombre d'utilisateurs (équipe formation, managers, collaborateurs), nombre de sessions par an, nombre de prestataires gérés, volume documentaire annuel, nombre d'entités juridiques.

6. Modalités d'accompagnement attendues

Modèle de déploiement attendu (chef de projet dédié ou autoportant), durée cible du déploiement, support post-go-live, formation des utilisateurs, gouvernance produit.

7. Demande commerciale

Format de réponse attendu (tableau de fonctionnalités, prix par utilisateur, prix par module, frais d'implémentation, accompagnement, intégrations), durée d'engagement, conditions de sortie.

8. Calendrier et processus de sélection

Date de retour, format de soutenance (démo + Q&R), critères d'évaluation, calendrier de décision.

9. Annexes

NDA si nécessaire, glossaire métier, schémas de processus actuels, volumes détaillés.

La grille d'évaluation TMS : 6 dimensions, 30 critères

Pour comparer les éditeurs sur des bases objectives, l'entreprise doit construire une grille d'évaluation pondérée avant les démos. Cela évite que la décision se fasse à l'instinct ou sur la sympathie du commercial.

Dimension 1 : Couverture fonctionnelle (poids type 30%)

  • Recueil des besoins (campagnes, demandes spontanées, intégration entretiens annuels).
  • Construction du plan de formation (arbitrage multi-strates, simulation budgétaire).
  • Gestion opérationnelle des sessions (internes, externes intra, externes inter).
  • Suivi budgétaire multi-financeurs au niveau session.
  • Gestion administrative (convocations, émargements, attestations, conventions).
  • Conformité (Qualiopi côté entreprise, formations obligatoires, BPF).
  • Reporting et tableaux de bord (CSE, direction, contrôle de gestion).

Dimension 2 : Expérience utilisateur (poids type 20%)

  • Simplicité du back-office équipe formation.
  • Lisibilité de l'interface manager validateur.
  • Expérience collaborateur sur l'inscription et la consultation.
  • Mobile (responsive ou app dédiée).
  • Personnalisation des libellés et workflows sans code.

Dimension 3 : Intégrations et écosystème (poids type 15%)

  • Connecteurs natifs SIRH (ceux utilisés par l'entreprise).
  • Connecteurs natifs LMS (si écosystème mixte).
  • SSO supporté (Azure AD, Google Workspace, Okta).
  • API REST documentée (pour intégrations sur mesure).
  • Connecteurs signature électronique et bureautique.

Dimension 4 : Accompagnement humain (poids type 15%)

  • Modèle de déploiement (chef de projet dédié ou autoportant).
  • Durée cible et garantie de go-live.
  • Modèle de support post-go-live (CSM dédié vs ticketing pur).
  • Continuité entre déploiement et exploitation.
  • Formation des utilisateurs (onboarding, documentation, communauté).

Dimension 5 : Pérennité et roadmap (poids type 10%)

  • Solidité financière de l'éditeur (chiffre d'affaires, croissance, levées de fonds).
  • Référentiel clients (volume, profils, durée d'usage moyen).
  • Investissement R&D (effectif équipe produit, cadence releases).
  • Visibilité sur la roadmap 12-18 mois.
  • Capacité à intégrer les évolutions réglementaires.

Dimension 6 : Tarification et conditions (poids type 10%)

  • Tarif total de possession (licence, implémentation, accompagnement, intégrations).
  • Modèle tarifaire (par utilisateur, par module, forfait).
  • Durée d'engagement et conditions de sortie.
  • Paliers de croissance (montée en charge progressive).
  • Transparence et lisibilité de la grille tarifaire.

Chaque critère est noté de 1 à 5 par chaque évaluateur, puis moyenné. La note pondérée par dimension donne le score final de l'éditeur. Un éditeur ne peut être retenu que si chaque dimension dépasse un seuil minimum (par exemple 3/5), même si le score global est élevé.

30 questions à poser systématiquement en démo TMS

Les démos d'éditeurs TMS se ressemblent toutes. Pour révéler les vraies différences, l'entreprise doit poser des questions précises, basées sur des cas d'usage concrets. Voici les 30 questions discriminantes.

Sur le recueil des besoins (4 questions)

  • Comment se passe une campagne de recueil annuelle, du lancement à la consolidation ?
  • Comment l'IA qualifie-t-elle automatiquement une demande spontanée ? Sur quels cas d'usage en production aujourd'hui ?
  • Comment intégrez-vous les conclusions des entretiens annuels dans le plan de formation ?
  • Que se passe-t-il quand un manager demande une formation hors catalogue ?

Sur le plan et l'arbitrage (4 questions)

  • Pouvez-vous me montrer une simulation budgétaire avec multi-financeurs (OPCO + interne + CPF) sur un cas concret ?
  • Comment se configure un workflow d'arbitrage à 3 strates de validation sans code ?
  • Comment gère-t-on les arbitrages en cascade quand le budget est dépassé en cours d'année ?
  • Pouvez-vous montrer la vue "plan annuel" pour un directeur formation groupe avec 5 entités ?

Sur les sessions (4 questions)

  • Combien de clics pour créer une session externe intra avec un nouveau prestataire ?
  • Comment se gère l'annulation tardive d'une session avec frais d'annulation à reventiler ?
  • Comment se passe l'inscription des participants depuis une demande validée jusqu'à la session ?
  • Comment se passe la gestion d'une session multi-participants sur plusieurs sites simultanés ?

Sur le budget et les financeurs (5 questions)

  • Comment le reste à charge se calcule-t-il en temps réel sur une session multi-financeurs ?
  • Combien d'OPCO différents peut-on gérer en parallèle dans un même tenant ?
  • Comment se gère un abondement CPF en cours de plan ?
  • Comment se traduit une session annulée dans le suivi budgétaire et la prise en charge OPCO ?
  • Comment construit-on un prévisionnel d'engagement budgétaire pour le contrôle de gestion ?

Sur la conformité (3 questions)

  • Comment l'outil signale-t-il les formations obligatoires en retard, par collaborateur ?
  • Comment se génère le BPF de fin d'année ?
  • Comment se gère un contrôle OPCO a posteriori : quels documents l'outil produit automatiquement ?

Sur les intégrations (3 questions)

  • Comment se passe l'intégration native avec mon SIRH (préciser le nom : Lucca, Workday, Cegid, Factorial) ?
  • Combien de temps prend la mise en place d'une intégration LMS (préciser le nom : 360Learning, Rise Up, Docebo) ?
  • L'API REST est-elle documentée et accessible en self-service ?

Sur l'accompagnement (4 questions)

  • Quel est le profil exact du chef de projet qui m'accompagnera pendant le déploiement ? Combien de projets gère-t-il en parallèle ?
  • Quel modèle de support post-go-live ? CSM dédié, équipe partagée, ticketing pur ?
  • Comment se passe la passation entre le chef de projet déploiement et le CSM ?
  • Quelle gouvernance produit annuelle existe avec vos clients ?

Sur la pérennité et la roadmap (3 questions)

  • Quels clients de référence d'une taille comparable à la mienne pouvez-vous me mettre en contact ?
  • Quelles fonctionnalités ont été livrées sur les 12 derniers mois ? Quelles sont prévues sur les 12 prochains ?
  • Comment intégrez-vous les évolutions réglementaires (réforme formation, IA, Qualiopi côté entreprise) ?

L'entreprise complète cette grille avec 5 à 10 questions spécifiques à son contexte (par exemple : multi-langues, multi-devises, formations habilitantes spécifiques, conventions sectorielles particulières).

Le bac à sable et la prise de référence

Cette étape est trop souvent négligée. Pourtant, c'est elle qui révèle ce qu'on ne voit pas en démo.

Le bac à sable

L'éditeur ouvre un environnement de test à l'entreprise, qui le manipule pendant 1 à 2 semaines. Trois usages clés à tester :

  • Configurer un workflow d'arbitrage avec ses propres règles.
  • Importer un échantillon réel de demandes de formation et construire un mini-plan.
  • Sortir un reporting consommation par direction et un export pour le CSE.

Si la prise en main de ces 3 usages prend plus de 4 heures avec un référent éditeur disponible, c'est un signal d'alerte sur la simplicité réelle de l'outil.

La prise de référence

L'entreprise contacte 2 à 3 clients de l'éditeur, idéalement de profil comparable (même taille, même secteur, même complexité multi-entités si applicable). Les questions à poser :

  • Comment s'est passé le déploiement (durée réelle vs durée annoncée, qualité de l'accompagnement, points de friction) ?
  • Quels usages avez-vous réellement déployés ? Lesquels avez-vous abandonnés en cours ?
  • Comment se passe le support au quotidien ?
  • Que referiez-vous différemment ?
  • Sur quels critères avez-vous choisi cet éditeur vs les autres en short list ?

Une référence client trop unanimement positive est un signal d'alerte. Une référence honnête et nuancée est plus précieuse.

Les 5 erreurs qui plombent un appel d'offres TMS

L'expérience des projets de sélection TMS fait remonter 5 erreurs récurrentes, qui mènent soit à un mauvais choix, soit à un appel d'offres qui s'enlise.

Erreur 1 : sauter l'étape de cadrage interne

Beaucoup d'entreprises commencent par contacter des éditeurs avant d'avoir aligné les parties prenantes internes. Le résultat : chaque démo réveille des besoins contradictoires, le comité projet se déchire et le scoring final se fait sur des bases mouvantes. Le cadrage interne sérieux prend 3 à 4 semaines mais en fait gagner 6 à 12 plus tard.

Erreur 2 : un cahier des charges générique

Un cahier des charges qui reprend des templates trouvés en ligne ne discrimine pas les éditeurs. Tous savent répondre "oui" à 90% des questions génériques. Pour révéler les vraies différences, le cahier des charges doit refléter les processus précis de l'entreprise, ses contraintes uniques (multi-entités, multi-OPCO, conventions sectorielles), et ses objectifs mesurables.

Erreur 3 : confondre démo libre et démo scénarisée

Laisser l'éditeur faire une démo libre revient à le laisser dérouler son argumentaire commercial. Cela donne l'impression que tout marche bien. Imposer des scénarios précis (par exemple "construis-moi un plan annuel pour 3 entités avec 4 OPCO différents en m'expliquant chaque étape") révèle la réalité fonctionnelle de l'outil.

Erreur 4 : négliger le bac à sable

Beaucoup d'entreprises décident sans avoir manipulé l'outil par elles-mêmes. C'est une erreur grave : ce qu'on voit en démo et ce qu'on ressent en utilisation autonome sont deux choses différentes. Le bac à sable est non négociable.

Erreur 5 : sous-pondérer l'accompagnement

L'accompagnement humain pèse souvent moins que les fonctionnalités dans les grilles d'évaluation. C'est un mauvais réflexe. Sur 12 à 24 mois, le coût d'un déploiement raté ou d'un support défaillant excède largement la différence de prix d'outil entre deux éditeurs comparables. Pondérer l'accompagnement à 15 à 20% du score est un minimum.

Comment Simbel répond à un appel d'offres TMS

Simbel est habitué aux appels d'offres TMS d'ETI multi-sites et de grands groupes. Quelques pratiques différenciantes côté Simbel.

Une réponse construite, pas un copier-coller

Chaque réponse à appel d'offres est construite sur le contexte précis de l'entreprise (entités, OPCO, écosystème SI, processus). Le tableau de couverture fonctionnelle est annoté avec des cas d'usage concrets, pas des cases cochées à l'aveugle.

Des démos scénarisées sur les processus de l'entreprise

Simbel demande systématiquement à l'entreprise de fournir 2 à 3 scénarios de démo. La démo se construit sur ces scénarios, avec des données factices proches de la réalité de l'entreprise (entités, OPCO, types de sessions). Cela permet de comparer ce qui est comparable.

Un bac à sable ouvert systématiquement aux 2 à 3 finalistes

Un environnement de test pré-configuré avec les processus de l'entreprise est ouvert pour 2 à 3 semaines. L'équipe formation peut y manipuler en autonomie, avec un référent Simbel disponible pour les questions.

Une mise en relation client transparente

Simbel met en contact 2 à 3 clients de référence par appel d'offres, sélectionnés selon le profil de l'entreprise. Les références sont prévenues et l'échange est libre, sans cadrage commercial.

Un accompagnement humain documenté et chiffré

Le modèle d'accompagnement Simbel (chef de projet dédié pendant 12 semaines de déploiement, CSM attitré post-go-live, point annuel directeur expérience client) est détaillé dans la réponse, avec engagement contractuel sur les profils, durées et livrables.

Une grille tarifaire lisible

Le tarif Simbel est construit selon le périmètre (collaborateurs, modules, entités), sans frais cachés. La grille est expliquée en réponse à appel d'offres, et les paliers de croissance sont contractualisables d'entrée pour anticiper la montée en charge sur 2 à 3 ans.

Pour découvrir comment Simbel peut répondre à votre appel d'offres TMS, demandez une démo personnalisée.

FAQ

Combien de temps dure un appel d'offres TMS sérieux ?

Entre 3 et 6 mois entre le démarrage du cadrage interne et la signature du contrat. Les projets plus rapides exposent à des choix mal informés, les projets plus longs consomment inutilement du temps interne et risquent de perdre l'engagement des parties prenantes.

Combien d'éditeurs faut-il mettre en short list ?

3 à 5 éditeurs en short list est l'optimum. En dessous de 3, la comparaison n'a pas de sens. Au-delà de 5, le comité projet s'épuise en démos répétitives et la décision se brouille.

Faut-il faire un appel d'offres formel ou peut-on procéder de manière plus souple ?

Pour les TPE et PME aux besoins simples, une démarche souple (3 démos, choix sur impressions) peut suffire. Pour les ETI multi-sites, multi-OPCO et grandes entreprises, un processus formel (cahier des charges écrit, grille d'évaluation pondérée, bac à sable, prises de référence) est indispensable pour sécuriser la décision.

Comment pondérer les critères dans la grille d'évaluation ?

Une pondération équilibrée pour une ETI : couverture fonctionnelle 30%, expérience utilisateur 20%, intégrations 15%, accompagnement humain 15%, pérennité et roadmap 10%, tarification 10%. Cette pondération privilégie l'usage et la pérennité plutôt que le prix court terme. Elle peut être ajustée selon le contexte (par exemple plus de poids aux intégrations si l'écosystème SI est complexe).

Que faire si un éditeur refuse d'ouvrir un bac à sable ?

Le refus d'ouvrir un bac à sable à un finaliste de short list est un signal négatif fort. Soit l'outil est plus complexe à manipuler que la démo le laisse penser, soit l'éditeur n'a pas le processus mature. Dans les deux cas, c'est un critère de tri à part entière.

Comment éviter que la décision se fasse à l'instinct du sponsor DRH ?

La grille d'évaluation pondérée, remplie par chaque évaluateur indépendamment puis consolidée, est l'outil principal. Le scoring chiffré force le débat sur des critères précis plutôt que sur des impressions globales. Le rôle du sponsor DRH est de trancher en cas d'égalité, pas de décider seul.

Faut-il négocier le tarif final ?

Oui systématiquement, mais sur les bons leviers. La négociation porte plus utilement sur la durée d'engagement (3 ans vs 1 an), les paliers de croissance (montée progressive vs périmètre figé), le périmètre d'accompagnement (jours de formation supplémentaires, présence terrain), que sur le tarif unitaire à la baisse. Les éditeurs sérieux préfèrent négocier la valeur ajoutée plutôt que le prix.