Dans le contexte du véhicule autonome, SystemX lance le projet CMI (Cockpit Multimodal Interactif) pour évaluer la pertinence des Interfaces Homme-Machine à plusieurs modalités sensorielles.
Dans le contexte du véhicule autonome, SystemX lance le projet CMI (Cockpit Multimodal Interactif) pour évaluer la pertinence des Interfaces Homme-Machine à plusieurs modalités sensorielles.


Le projet CMI se focalise sur le cockpit du véhicule autonome. Il s'attachera à définir les meilleures combinaisons possibles de solutions d'IHM sollicitant différents sens humains (la vue, l'ouïe, le toucher) pour réduire la charge cognitive visuelle du conducteur et améliorer son intuitivité. Il étudiera la forme que devrait prendre l'assistant virtuel du conducteur pour rendre la conduite sûre, intuitive et reposante. Il identifiera et expérimentera donc les conditions de réussite de l'orchestration multimodale des interactions entre le cockpit et le conducteur.

Palaiseau, le 06 juin 2018 - SystemX, unique IRT dédié à l'ingénierie numérique des systèmes du futur, lance le projet Cockpit Multimodal Interactif (CMI). Centré sur le développement, l'évaluation et l'orchestration de solutions d'interactions Homme-Machine (IHM) à plusieurs modalités sensorielles, ce projet vise à réduire la charge attentionnelle des conducteurs dans le cadre des boucles perception-action du véhicule. Seront étudiées principalement les modalités visuelle, auditive et haptique. Le recours à la modalité olfactive pourra être envisagé ponctuellement.

Ce projet de recherche a pour objectif de répondre aux nouvelles problématiques et de lever les verrous scientifiques liés à l'accroissement des fonctions et technologies numériques embarquées, avec un regard particulier sur les impacts liés à l'automatisation du véhicule (niveaux 1 à 4 de la classification SAE). Les « transitions » entre les différents niveaux d'automatisation doivent aussi être rendues efficaces à l'aide de la multimodalité des interactions, sans perdre de vue la sécurité, notamment pour des transitions vers une conduite plus manuelle.

« L'introduction massive des écrans tactiles a eu pour conséquence de supprimer le retour haptique lié à l'utilisation d'un bouton physique et d'accroître la sollicitation des ressources visuelles. L'intérêt de l'utilisation de plusieurs modalités sensorielles est d'éviter de saturer l'une des modalités, dans la plupart des cas, la vision. Il faut en effet savoir qu'à chaque modalité sensorielle est associé un réservoir attentionnel qui lui est propre. Notre projet est très centré sur le conducteur, il vise à définir les meilleures combinaisons d'interfaces homme-véhicule et à les tester dans différents cas d'usages », explique Paul Labrogère, Directeur du Programme Transport Autonome de SystemX.

Les objectifs du projet sont triples :
  • Développer et évaluer plusieurs applications d'IHM multimodales contextualisées.
  • En déduire des guidelines pour le design d'IHM qui sollicitent au plus juste l'attention et utilisent notamment l'attention diffuse, ressource à ce jour peu exploitée dans le cockpit, en s'appuyant sur des technologies multimodales.
  • Explorer le potentiel d'un assistant virtuel pour représenter par exemple l'état du système de conduite autonome ou faire un retour au conducteur sur état de vigilance.


Trois cas d'usages seront étudiés : les changements de mode de conduite, la réassurance du conducteur comme du passager, le divertissement dans une voiture autonome.

Les partenaires s'attacheront à définir les meilleures combinaisons de technologies possibles. Il sera possible de recourir à la simulation de certaines technologies insuffisamment matures, dans le but de prototyper ou d'orienter la conception de pièces physiques.

Le système étudié dans le cadre du projet intègrera les composantes suivantes : les systèmes d'interaction (haptiques, audios, visuels), les systèmes d'affichages (écrans, pare-brises, réalité augmentée, etc.), la surveillance du conducteur et plus généralement de l'intérieur de l'habitacle et le superviseur du cockpit qui permet notamment de gérer les interactions conducteur-voiture et de contrôler l'assistant virtuel. Le projet sera mené dans le cadre d'un environnement cockpit avec simulateur de conduite, développé au sein de l'IRT SystemX.

Les principaux verrous à lever seront les suivants :
  • Les performances du système : le cockpit de test devra permettre de tester les choix multimodaux et les priorités entre commandes. Il devra donc être suffisamment représentatif d'un vrai cockpit.
  • Surface interactive multimodale : les surfaces sensitives s'accompagnent souvent d'un retour haptique et sonore. La difficulté réside dans l'optimisation du niveau sonore vs niveau de bruit.
  • Assistant virtuel : comment sera-t-il représenté (audio, visuel, visuel 2D, visuel 3D, hologramme, etc.) ?
  • Surveillance du conducteur et de l'habitable : La surveillance existe aujourd'hui avec un certain niveau de retour utilisateur. Comment faire évoluer ces systèmes pour les adapter au besoin d'ergonomie de demain ?
  • « Son » : les résultats peuvent-ils être reproduits dans un autre cockpit ? (Le projet étant développé dans un cockpit de démonstration, il est important de s'assurer que les résultats ne sont pas conditionnés par cet environnement)
  • « Facteurs humains » : Comment évaluer la sollicitation attentionnelle ? comment gérer la polysémie des messages d'une modalité à l'autre ?
  • « Vitrages » : Comment combiner intelligence des vitrages et respect du processus ingénierie ?


  • Ce projet s'inscrit dans la lignée du projet Localisation - Réalité Augmentée (LRA) qui a pris fin en octobre 2017 et étudiait les nouvelles interactions et interfaces entre le conducteur (ou le système ferroviaire) et son véhicule, fondées notamment sur la technologie « Réalité Augmentée ».

    Article original : http://www.auto-innovations.com