Informations – daEDALUS: Eyetracking, Data AnaLysis and Use http://daedalus.imag.fr Groupe de travail AFIHM sur l'oculométrie Wed, 06 Dec 2017 16:14:51 +0000 en-US hourly 1 https://wordpress.org/?v=5.1.17 http://daedalus.imag.fr/wp-content/uploads/2015/09/cropped-logo-daedalus-32x32.png Informations – daEDALUS: Eyetracking, Data AnaLysis and Use http://daedalus.imag.fr 32 32 Le groupe de travail daEDALUS se met en sommeil pour quelque temps… http://daedalus.imag.fr/?p=346 Wed, 06 Dec 2017 15:56:30 +0000 http://daedalus.imag.fr/?p=346 ]]> En accord avec l’AFIHM, nous mettons le groupe de travail daEDALUS en sommeil, car les deux animateurs manquent cruellement de temps pour pouvoir l’annimer sérieusement.

Nous travaillons toujours sur la thématique de l’eye-tracking, et dès que les projets en cours nous laisseront un peu de disponibilités (ou dès qu’un de nos collègues trouvera la formule du don d’ubiquité :-), nous ranimerons ce groupe de travail !

A bientôt,

Christian et Francis

]]>
Compte-rendu – Atelier “Oculométrie” à IHM’2015 le 27 Octobre 2015 http://daedalus.imag.fr/?p=310 Sat, 31 Oct 2015 18:21:03 +0000 http://daedalus.imag.fr/?p=310 ]]> Thème : Quelles avancées récentes en oculométrie ?

ihm15À l’initiative du groupe de travail « oculométrie » de l’AFIHM (http://www.afihm.org), un atelier a été organisé à Toulouse le Mardi 27 Octobre 2015 après-midi, pendant la conférence IHM’2015 (http://ihm2015.afihm.org).

Participants :

  • ALLOUA Claude – Tobii Pro
  • ARDOUIN Jean-Claude – IRBA
  • BARREIROS José – SMI
  • BASTIEN Christian – PErSEUs, Université de Lorraine – Metz
  • BOISSIERE Philippe – IRIT
  • CAROUX Loïc – CLLE-LTC, Université Toulouse Jean Jaurès, CNRS, EPHE
  • CAÏD Stéphane – Armée de l’Air
  • CHAVES Nathalie – CHArt, U-PEC
  • DAVID Bertrand – LIRIS/SICAL, École Centrale de Lyon
  • DONNOT Julien – CReA/FHMO
  • DUBOIS Emilien – ENAC
  • HAURET Daniel – Armée de l’Air
  • JAMBON Francis – LIG, Université Grenoble Alpes
  • JAOUALI Florent – WeLoveUsers
  • LEMONNIER Sophie – PErSEUs, Université de Lorraine – Metz
  • LEPREUX Sophie – LAMIH, UVHC
  • LUU Antoine – Tobii Pro
  • MACÉ Marc – IRIT
  • MARIS Gaëlle – Aeroconseil
  • POISSON Céline – Vedecom, Université Paris 8
  • ROSSET Jean-Baptiste – Orange Labs
  • TARDAN Vincent – IRBA

Interventions :

  • Construction de la conscience de la situation d’un chef d’équipe : quelle articulation entre prise d’information visuelle et échange d’informations verbales
    Vincent TARDAN, Françoise DARSES, Jean-Claude ARDOUIN et Léonore BOURGEON – IRBA (Institut de Recherche Biomédicale des Armées), Département ACSO (Action et Cognition en Situation Opérationnelle) – prenom.nom@irba.fr
    Résumé : De façon à atteindre leurs objectifs opérationnels, les sous-mariniers ont besoin d’élaborer et de maintenir une conscience de la situation de qualité. Le but de notre recherche est d’identifier comment s’élabore la conscience de la situation de chacun des membres de l’équipage chargé du module « sécurité plongée ». Deux sources d’information sont majeures dans cette élaboration de la conscience de la situation : (i) les processus interactionnels qui se manifestent au travers des échanges verbaux et (ii) le recueil d’informations sur la conduite du bâtiment au travers des interfaces de conduite. Nous avons centré notre étude sur le travail du chef d’équipe (dit « maître de central »), en analysant d’une part, ses échanges verbaux avec les membres de son équipe et d’autre part, la consultation qu’il fait des indicateurs de conduite sur les interfaces. Les échanges verbaux ont été analysés par une méthodologie d’analyse de protocole, tandis que la consultation des indicateurs de conduite a été analysée par relevés oculométriques. Durant l’atelier, nous présenterons comment ces deux sources de données sont complémentaires et comment elles peuvent renseigner sur la construction de la conscience de la situation du maître de central. Nous mettrons ces éléments en relation avec la performance collective.
  • Mouvements oculaires et prise de décision en conduite
    Sophie LEMONNIER – PErSEUs, Université de Lorraine – sophie.lemonnier.pro@gmail.com
    Résumé : Est-il possible de distinguer les processus propres à une tâche grâce aux mouvements des yeux et d’étudier comment ces processus évoluent dans le temps ? Afin d’explorer cette question, nous avons choisi comme situation une approche de carrefour, et comme tâche la prise de décision de s’y arrêter ou non. Nous avons mené une expérience en simulateur de conduite et une autre en situation réelle. L’analyse des données oculométriques spécifiques à chaque étude (durées de fixation, amplitudes de saccade, excentricité de l’angle du regard) a permis d’explorer cette question sous des angles complémentaires.
  • Influence des affichages tête-haute sur l’expérience utilisateur dans les jeux vidéo
    Loïc CAROUX – CLLE-LTC, UMR 5263, Université Toulouse Jean Jaurès – CNRS – EPHE – loic.caroux@univ-tlse2.fr
    Résumé : Les affichages tête-haute (ATH) sont des éléments importants des interfaces visuelles des jeux vidéo. Peu d’études ont cependant étudié leur rôle dans les interactions joueur-jeu vidéo. Nous avons réalisé une étude expérimentale préliminaire pour comprendre comment et dans quelle mesure les joueurs utilisent et ressentent les ATH en fonction de leur expertise et du genre du jeu. Les résultats issus d’oculométrie et d’interviews ont montré la nécessité d’afficher un ATH permanent pour une meilleure compréhension de l’environnement par le joueur. Ils ont aussi révélé que la composition et l’organisation spatiale des ATH ont une influence particulière sur l’expérience du joueur.
  • Un utilitaire de traitement de données oculométriques
    Jean-Baptiste ROSSET – Orange – jeanbaptiste.rosset@orange.com
    Résumé : Le Centre de Tests Clients Orange de Paris utilise un oculomètre Tobii comme outil (parmi d’autres) pour l’évaluation d’interfaces homme-machine. Comme il n’existait pas, en standard, dans le logiciel Tobii Studio, certains indicateurs, un utilitaire sous Excel a été développé pour : (1) réaliser des chronogrammes à partir du parcours oculaire des participants sur des AOI ; et (2) analyser les transitions entre AOI sous forme matricielle.
  • Evalyzer+ : un outil complet pour vos tests utilisateurs avec oculométrie
    Christian BASTIEN – Université. de Lorraine – Metz – christian.bastien@univ-lorraine.fr
    Résumé : L’outil Evalyzer+ permet de réaliser des tests utilisateurs à distance et en laboratoire. Afin d’de limiter l’utilisation d’outils différents lors de tests avec et sans oculométrie, nous avons intégré à Evalyzer un module permettant de réaliser des études oculométriques avec le matériel Tobii. Ainsi une campagne de tests utilisateurs peut être réalisée à distance, en laboratoire, et dans ce dernier cas, avec ou sans oculométrie. On bénéficie ainsi des mêmes modules d’analyse des comportements d’internautes en intégrant le cas échéant des données oculométriques. Evalyzer+ peut donc remplacer Tobii Studio.
  • EyeComponent : vers une bibliothèque logicielle pour le prototypage rapide et l’évaluation d’interfaces monomodales commandées par le regard
    Francis JAMBON et Florian MOLLIN – LIG, Université Grenoble Alpes – francis.jambon@imag.fr
    Résumé : Aujourd’hui, la disponibilité sur étagère l’oculomètres à bas coût rend crédible l’utilisation du regard comme moyen d’interaction pour des dispositifs dédiés au grand public. Or, le regard étant avant tout dédié à la prise d’information, l’utilisation du regard comme moyen d’interaction, notamment en monomodal, se heure à la difficulté de distinguer cette prise d’information de l’action. Il s’agit d’un verrou connu sous le nom de “Midas Touch”. De nombreux moyens de contourner cet obstacle ont été étudiés dans la littérature (modes, gestes oculaire, clignements des yeux, temps de fixation, retours d’information, etc.), sans qu’un réel consensus ne se dégage. Le problème devient plus saillant encore lorsque l’on souhaite utiliser le regard comme seul moyen d’interaction, c’est-à-dire dans un contexte monomodal. Face à ce nouveau dispositif d’interaction, il s’agit donc de déterminer les modes d’interaction les plus adaptés et de les évaluer tant au niveau de l’ergonomie que des usages. Notre contribution vise à faciliter ce processus d’évaluation en développant une boîte à outils permettant le prototypage rapide d’interfaces commandées par le regard. Nous nous sommes focalisés sur la technique du déclenchement par temps de fixation (“dwell”) et intégrant un retour d’information progressif. Nous avons ainsi développé “EyeComponent”, une boîte à outils Java permettant d’utiliser des widgets classiques augmentés d’une fonction commande par le regard. Ces widgets peuvent être utilisés pour créer n’importe quelle interface via un GUI-Builder. De plus, nous avons facilité l’intégration de l’interface crée dans un processus d’évaluation expérimentale en permettant une configuration aisée des widgets (temps de déclenchement, retours d’information, etc.) et en intégrant un système de récupération des traces d’interaction en temps réel.

Organisateurs : Christian BASTIEN et Francis JAMBON

]]>
Compte-rendu – Atelier “Oculométrie” à IHM’2014 le 28 Octobre 2014 http://daedalus.imag.fr/?p=177 Thu, 08 Jan 2015 09:20:13 +0000 http://daedalus.imag.fr/?p=177 ]]> À l’initiative du groupe de travail « oculométrie » de l’AFIHM (http://www.afihm.org/), un atelier d’une demi-journée a été organisé à Lille le Mardi 28 Octobre 2014 après-midi, pendant la conférence IHM’2014 (http://ihm14.lille.inria.fr).

Cet atelier avait pour but de rassembler les chercheurs qui utilisent l’oculométrie dans une perspective de psychologie ergonomique ou d’Interaction Humain-Machine afin : (1) d’échanger sur leurs thématiques de recherche, (2) trouver des articulations entre thématiques et (3) de mettre sur pied des collaborations.

Participants :

  • Damien APPERT – IRIT UMR CNRS 5505, Université de Toulouse 3
  • Christian BASTIEN – PErSEUs, Université de Lorraine
  • Jean-Michel BOUCHEIX – LEAD-CNRS, UMR 5022, Université de Bourgogne
  • César BOOG – CIC-IT
  • Allison COMBETTE – Université des Antilles et de la Guyane
  • Francis JAMBON – LIG, Université Grenoble Alpes
  • Alexandre LEMORT – Ingenuity i/o
  • Séverine LOISEAU – CIC-IT
  • Edwige PISSALOUX – ISIR/UPMC (excusée)
  • Jean-Charles RISCH – Cap Gemini
  • Jessica SHIRO – CIC-IT

Interventions :

  • Ysitools : Outils d’analyse de mouvements oculaires
    Damien APPERT – IRIT UMR CNRS 5505, Université de Toulouse 3
    Résumé : We propose Ysitools, a toolbox written in Perl inspired by research on visualisation information. Our objective is to help practitioners to set up experiments using different devices and especially eye-tracker systems. The toolbox proposes different visualisations and post-processing functions. It also provides a set of tools to perform experimental evaluations. We illustrate some of the proposed visualisation through a case study concerning the reading process for dyslexic people.
  • Eye tracking et compréhension d’animation interactives
    Jean-Michel BOUCHEIX – LEAD-CNRS, UMR 5022, Université de Bourgogne
    Résumé : Deux recherches seront présentées qui s’intéressent à l’utilisation des données oculaires pour étudier les mécanismes de compréhension d’animations multimédia interactives. (i) La première étude a consisté à synchroniser mouvement oculaire et  dessin sur  table graphique pour tester l’effet de dessiner à partir d’une animation sur la compréhension des étapes présentées dans cette animation. (ii)  La deuxième étude a porté sur l’analyse du mouvement des yeux dans des taches dynamiques mesurant des habiletés visuo-spatiales spécifiques.
  • Interaction par le regard: évaluation du retour d’information progressif
    Francis JAMBON – LIG, Université Grenoble Alpes
    Résumé : L’utilisation de l’oculométrie pour l’interaction par le regard se caractérise, dans le cas d’une approche monomodale, par un fort couplage entre perception et action : il n’est pas possible, dans le cas général, de distinguer une prise d’information d’une action de l’utilisateur. C’est pourquoi nous proposons une nouvelle approche, basée sur un retour d’information progressif, permettant une réduction de ce couplage. Les premiers résultats expérimentaux sont encourageants et indiquent que l’interaction par le regard peut être une technique d’interaction crédible dans certains contextes d’usage. Ils mettent aussi en lumière l’intérêt du retour d’information progressif.

Organisateurs : Christian BASTIEN et Francis JAMBON

]]>
Compte-rendu – Journée Oculométrie du 4 Avril 2014 http://daedalus.imag.fr/?p=78 Sun, 13 Apr 2014 16:37:32 +0000 http://daedalus.imag.fr/?p=78 ]]> À l’initiative de la commission « oculométrie » d’ARPEGE (http://arpege-recherche.org/home) et du groupe de travail « oculométrie » de l’AFIHM (http://www.afihm.org/), une journée a été organisée à Paris le 4 avril 2014. Cette journée s’est déroulée au LUTIN Userlab (http://www.lutin-userlab.fr) de la Cité des Sciences.

L’objectif de cette journée était de rassembler les chercheurs qui utilisent l’oculométrie dans une perspective de psychologie ergonomique ou d’Interaction Humain-Machine afin : (1) d’échanger sur les thématiques de recherche, (2) trouver des articulations entre thématiques et (3) préparer des projets de recherche.

Participants :

  • Jean-Claude ARDOUIN – IRBA
  • Gilles BAILLY – TELECOM ParisTech
  • Christian BASTIEN – PErSEUs, Université de Lorraine-Metz
  • Kerstin BONGARD-BLANCHY
  • Jean-Michel BOUCHEIX – LEAD, Université de Bourgogne
  • Nicolas DEBUE – Université Libre de Bruxelles
  • Jérôme DINET – PErSEUs, Université de Lorraine-Metz
  • Gautier DRUSCH – PErSEUs, Université de Lorraine-Metz
  • David HARTNAGEL – IRBA
  • Zakia IKHLEF – LUTIN UserLab
  • Francis JAMBON – LIG, Université Grenoble Alpes
  • Nasser KESIOU – LUTIN UserLab
  • Sami LINI – Akiani
  • Isabelle MILLEVILLE-PENNEL – IRCCyN
  • William PAYRE – IFSTTAR
  • Maria-Sol PEREZ TORALLA
  • Sébastien POITRENEAUD – CHArt, Université Paris 8
  • Maud RANCHET – IFSTTAR
  • Charles TIJUS – LUTIN UserLab
  • Geoffrey TISSIER – LUTIN UserLab
  • Raphaël WALKER – IFSTTAR
  • Frederick WEHRLE – ICD International Business School

Interventions :

  • Un modèle de recherche visuelle dans les menus linéaires : Validation avec un eye-tracker
    Gilles Bailly – Telecom-ParisTech
  • Des scanpaths et des heatmaps à l’identification automatique et à la visualisation dynamique des zones d’intérêt
    Gautier Drusch –Université de Lorraine
  • Après « eye and pen », voici « eye and paint » : synchroniser eye tracking et tablette graphique pour dessiner à partir d’animations
    Jean-Michel Boucheix –Université de Bourgogne
  • Analyse « on-line » de fixations et de fixations en cours : différentes approches pour différents usages
    Francis Jambon –Université Grenoble Alpes
  • Psychologie ergonomique de la recherche d’information et navigation en environnement numérique 3D
    Jérôme Dinet – Université de Lorraine

Comité de programme : Christian Bastien, Jean-Michel Boucheix et Francis Jambon

]]>