Steering Control
« Contrôle natif et ininterrompu de l'interface utilisateur géré par la trame conversationnelle de l'intelligence artificielle, transformant l'échange vocal ou textuel en une télécommande applicative fluide. »
La conversation orchestre votre navigation de façon invisible.
Le Steering Control inverse le paradigme de la navigation : le visiteur n'a plus à chercher les boutons. L'intention révélée par la conversation suffit à déclencher les événements du frontend de manière automatique.
Lorsqu'un visiteur discute d'un détail de l'œuvre avec l'agent, le serveur transmet discrètement des marqueurs comportementaux que l'interface intercepte pour adapter le display (scroll, popups, redirections de page).
À chaque inflexion de la discussion, l'interface mute naturellement, comme un guide de musée qui vous pointerait du doigt la toile suivante, de façon élégante, chorégraphiée et magique.
Natural Language Trigger
La sémantique formulée par la voix ou le texte par le visiteur est comprise en temps réel comme le besoin d'une action UI concrète par le LLM.
Passing Token
Le modèle Gemini intègre des tokens invisibles (ou JSON keys) au fil de la réponse narrative, interprétés comme des balises d'action furtives.
Server-side Listener
Une boucle asynchrone côté serveur écoute et intercepte ces tokens discrets tout en laissant passer le flux textuel pour l'utilisateur sans latence.
Animations & Routing
Le client React décode les tokens pour déclencher des actions natives complexes : un zoom, l'ouverture d'un menu d'aide, ou un switch de route (changement de page).