Eye tracking - Log #01

25 octobre 2018

© Giona Mottura

D’octobre 2018 à janvier 2019, le studio INT est en résidence au Musée de l’Elysée pour développer un dispositif de narration sonore piloté par le mouvement des yeux. 

Genèse du projet

Les musées travaillent depuis longtemps sur la question de la numérisation des œuvres. Il existe de très nombreuses approches et les technologies actuelles livrent des résultats bluffant. Depuis 2015, les trois musées de PLATEFORME10 - le mudac - Musée de design et d'arts appliqués contemporains, le mcb-a - Musée cantonal des Beaux-Arts de Lausanne et le Musée de l’Elysée ; ont collaboré avec ARTMYN, une start-up spécialisée dans la numérisation très haute définition en 5 dimensions.La technologie de visualisation mise au point par la jeune société issue de l’EPFL offre un rendu bluffant. Les résultats sont visibles en ligne.

En poursuivant nos recherches sur les outils numériques et sur les applications pour la transmission et la valorisation, nous nous sommes demandé comment créer un lien tangible avec les contenus. Et particulièrement comment l’œil humain fonctionne et ce qu’on regarde dans une œuvre d’art. C’est ainsi qu’est née la collaboration avec le studio lausannois INT

Premiers tests sur une photographie de Gaston de Jongh (collection du Musée de l'Elysée).

Second prototype et premières impressions après une semaine d’exploitation

Le premier prototype consistait à tester l’idée. Nous voulions savoir si la technologie dite de eye tracking pourrait avoir un sens pour créer une narration. Nous avons testé trois fonctionnalités : déclenchement de commentaires audio, zoom sur un point précis et analyse des couleurs. Chacune d’entre elles s’est révélée pertinente et nous avons décidé de poursuivre l’exploration.

Le nouveau prototype présenté au LabElysée jusqu’au 27 janvier 2019 teste la narration sonore. Lorsque le visiteur regarde une zone de l’œuvre, un détail, un personnage, des commentaires audio sont déclenchés donnant plus d’informations sur l’œuvre et sa composition. 

Second prototype. Photo : Giona Mottura.

Vue d'installation. Photo : © Yannick Luthy.

Pendant les trois semaines précédant l’ouverture de l’exposition, nous avons travaillé essentiellement sur la calibration du capteur Tobii Pro X2. Le plus difficile étant de faire en sorte que l’appareil de suivi du regard s’adapte à vos yeux. A l’aide d’un didacticiel animé, le visiteur place le capteur à la bonne hauteur, puis doit fixer une série de points à l’écran pour que la calibration soit complète. La visite peut alors commencer.

Analyse du parcours du regard sur une image de Matthias Bruggmann.

Prochaines étapes

Les prochaines étapes consistent à améliorer la calibration pour la rendre plus intuitive et travailler sur la narration pour que l’information donnée au visiteur soit fluide et cohérente.

Vous pouvez tester le dispositif au Musée de l’Elysée jusqu’au 27 janvier 2019. N’hésitez pas à envoyer vos commentaires à elyseelab(at)gmail.com.

Remerciements

Merci à Matthias Bruggmann qui a accepté de prêter une de ses images pour le prototype.
Merci à la société Tobii qui nous a mis à disposition un capteur de mouvement des yeux.

Logbook

L'évolution du prototype développé au LabElysée est régulièrement documentée dans notre Logbook. 

25 octobre 2018 - Eye tracking - Log #01

06 décembre 2018 - Eye tracking - Log #02

 

 


Partenaires

Le LabElysée reçoit le généreux soutien de la Fondation BNP Paribas, de la Loterie Romande et du Canton de Vaud.




Ce projet reçoit le généreux soutien du fonds de soutien Engagement Migros, partenaire innovation du Musée de l’Elysée.

Ce projet ne serait possible sans le soutien de Tobii Pro

LabElysée

Le LabElysée est le nouvel espace d’expérimentation du Musée de l’Elysée dédié à la culture numérique. Chantier vivant au coeur du musée, le LabElysée questionne la façon dont une institution culturelle dédiée à la photographie joue avec les nouvelles technologies.

En savoir plus

INT x PLATEFORME 10

D’octobre 2018 à janvier 2019, INT est en résidence au Musée de l’Elysée pour développer un dispositif de narration sonore piloté par le mouvement des yeux. A la différence d’un audioguide classique, le système vise à donner des informations sur l’œuvre et son contexte en se basant sur ce que regarde le visiteur.

En savoir plus