La recherche de billets SNCF sur les rails dans ChatGPT
Dans le cadre de la conférence Devoxx France qui s'est tenue à Paris en avril, SNCF Connect a présenté une application directement intégrée à ChatGPT pour trouver ses billets de train via une interface conversationnelle en langage naturel.
PublicitéEn avril, la SNCF a lancé une application dans ChatGPT, nouvelle interface de recherche de trajets et de billets pour ses clients, mais cette fois, en langage naturel. L'utilisateur n'entre plus des critères dans un onglet de recherche, mais il formule une demande comme il le ferait auprès d'un agent en gare. L'application interprète ensuite celle-ci pour proposer des trajets adaptés, en tenant compte de ses préférences.
À l'occasion de la conférence Devoxx qui s'est tenue fin avril à Paris, l'opérateur ferroviaire a réalisé une démonstration de l'interface, avec une utilisatrice fictive. Celle-ci a affiné sa recherche en quelques phrases seulement, demandant par exemple des trajets directs, plus rapides ou exclusivement en TGV. L'interface ne se limite pas au texte, mais s'appuie aussi sur des éléments graphiques interactifs, avec des cartes, des listes et des détails tarifaires intégrés directement dans la conversation.
Interfaçage entre services métier et LLM
Le dispositif repose sur un système associant des services métiers capables d'exécuter des requêtes au LLM. L'agent conversationnel sélectionne les actions adéquates en fonction de la demande. Lors des phases de test, certaines ambiguïtés de langage ont nécessité des ajustements. Une requête liée à un "voyage adulte" a ainsi été interprétée de manière inappropriée par l'agent IA, illustrant les défis de compréhension contextuelle auxquels ce type de système est confronté.
SNCF Connect s'appuie sur un serveur MCP, qui fait le lien entre ses API internes et le LLM. Il expose des outils que le modèle appelle pour exécuter les recherches de trajet, récupérer des données ou générer des interfaces. La particularité du dispositif réside dans sa capacité à combiner conversation et interface graphique. Les résultats ne sont pas seulement décrits, ils sont affichés sous forme de widgets interactifs, intégrés directement dans ChatGPT. Cette architecture implique toutefois un encadrement précis des interactions. Des instructions, des annotations et des filtres sont utilisés pour orienter les réponses du modèle, limiter les incohérences et éviter certains comportements non souhaités.
Risque de désintermédiation
Brancher un LLM public sur des services métiers sensibles n'est pas sans risque et SNCF Connect a mis en place plusieurs niveaux de sécurité pour protéger ses API et ses données. Le serveur MCP agit comme un point de contrôle, avec des restrictions d'accès, du filtrage d'adresses IP et des mécanismes de validation intégrés. Les échanges avec le modèle sont également encadrés pour éviter toute fuite d'informations sensibles. La question de la confidentialité reste également centrale. L'utilisation d'un modèle externe impose en effet de partager certaines données, et donc une vigilance accrue, notamment au regard des contraintes règlementaires, comme le RGPD.
PublicitéSi cette intégration ouvre de nouvelles perspectives, elle soulève aussi des questions stratégiques. En s'appuyant sur des plateformes comme ChatGPT, SNCF Connect propose une plus grande facilité d'usage, mais elle s'expose également à un risque de désintermédiation.
Autrement dit, à terme, rien ne garantit que les plateformes conversationnelles ne deviennent elles-mêmes des intermédiaires dominants dans la vente de billets, et que des opérateurs comme la SNCF ne perdent la maîtrise de leurs clients, du suivi des comportements de ces derniers et de leurs data. Une interrogation assumée par les équipes, qui explorent en parallèle des solutions propriétaires. C'est notamment le cas avec un projet interne d'application agentique complète pour le voyage, encore en phase de test. Cette approche permettrait de garder la maîtrise de l'expérience, tout en exploitant les capacités des modèles de langage.
Le coût de la mise à l'échelle
Au-delà des enjeux techniques et stratégiques, le coût représente une contrainte majeure de ce type de projet. Les appels aux LLM restent onéreux, surtout à grande échelle. Pour une plateforme comme SNCF Connect, qui traite un volume important de requêtes, la généralisation de ces interfaces pose un véritable défi économique. Les équipes de l'organisation explorent plusieurs pistes, comme l'utilisation de modèles plus légers ou hybrides, combinant IA locale et appels distants. L'objectif est de trouver un équilibre entre performance, coût et qualité de service.
Article rédigé par
Hanna Elgodjam, Journaliste
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire