Конференция ECEM 2017 (Германия)

20-24 августа 2017 года в Вуппертале (Германия) прошла крупнейшая европейская конференция по теме айтрекинга и окуломоторики (движений глаз) - ECEM 2017 http://ecem2017.uni-wuppertal.de/
От компании Neurodata Lab LLC в ней приняла участие научный сотрудник, биолог, эксперт по зрительной сенсорной системе, окулографии и окуломоторике Мария Константинова, которая представила доклад под названием “The relationship between subjective time perception and visual attention”, а также ознакомилась с результатами последних исследований в поле пересечения айтрекинговых технологий и анализа эмоций и поведения человека.


На конференции вниманию участников было предложено большое разнообразие экспериментальных работ (направления: движения глаз во время чтения, клинические исследования, исследования внимания, памяти и нейронных механизмов генерации саккадических движений, пупиллометрия, изучение микросаккад и др.), были продемонстрированы актуальные подходы в обработке данных движений глаз, а также новые аппаратные и методические решения.  

Упомянем некоторые интересные выступления со ссылками на библиографию ниже:
Hooge et al., 2017 – обратились к вопросу стандарта выделения окуломоторных событий (фиксаций и саккад) и показали, что экспертная оценка является приемлемым методом, но далеко не идеальным, так как эксперты, несмотря на высокую согласованность, при выделении событий руководствуются различными правилами, и описанный метод не подходит для сильно зашумленных данных. Применительно к выделению событий на данных с большим количеством шумов (например, при записи движений глаз ребенка) – инновационный подход продемонстрировали Mack, Wadehn, 2017, применяя Kalman smoothing и Expectation Maximization; Hein, 2017 – Itop метод (identification by topological characteristics); Zemblys et al., 2017 – использовали нейросети (Random Forest) для выделения событий;  Haass et al., 2017 – доказали оптимальную валидность data driven моделей (Gaussian mixture model, Nystrom-Holmqvist (2010) model), выставляющих разный порог выделения событий в зависимости от данных, для анализа записей движений глаз в естественных условиях.

В области новых аппаратных решений Hofmann et al., 2017 показали прототип сенсора (Event-Based Vision Sensor), который способен осуществлять запись данных движений глаз не по фреймам, а непрерывным потоком, и отличается принципиально меньшим энергопотреблением, чем высокочастотные камеры для регистрации движений глаз. Также в ходе мероприятия были представлены системы для одновременной регистрации движений глаз: Toivanen, Hannula, 2017 – создали очки-айтрекеры, позволяющие вести синхронную запись движений глаз учащихся и учителя; Acarturk et al., 2017 – провели синхронную запись движений глаз во время многопользовательской игры; Nakamura et al., 2017 – запись движений глаз в экспериментальном сеттинге по типу Skype call. Bielecki et al., 2017 изложили оригинальный подход для исследования зрительного внимания большой группы людей без использования дополнительного оборудования. Подобные методические и аппаратные разработки открывают заманчивые перспективы для анализа поведения человека во множественных ситуациях повседневности, что расширяет возможности для изучения естественных эмоциональных реакций человека.

Кроме того, отметим и значительный объем трудов по мониторингу состояния водителей и диспетчеров (например, Clifford et al., 2017; Gruner et al., 2017), по интеграции айтрекинга в системы виртуальной и дополненной реальности (например, Pipa et al., 2017), больше трети работ было посвящено чтению и лингвистике, что в целом отражает привычный тренд.

Библиография:

Acarturk C., Tajaddini M., Kilic O. Group Eye Tracking (GET) Applications in Gaming and Decision Making// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.121.
Bielecki M., Potega vel Zabik K., Gochna M., Mikulski J. Mass measurement of eye-movements under the dome - proof of concept studies// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.121.
Clifford W.D., Deegan C., Markham C. Smart detection of driver distraction events// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.272.
Gruner M., Hartmann P., Ansorge U., Busel C. The influence of light-Induced dynamics on attention, perception, and driving behavior: a real-world driving study// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.273.
Haass M., Laura M., Divis K. Comparing data evaluation task effects on data driven event detection models// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.170.
Hein O. Topology for gaze analyses// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.169.
Hofmann F., Glover A., Pfeiffer T., Bartolozzi C., Chicca E. Towards low-latency blink detection using event-based vision sensors// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.168.
Hooge I.T.C, Niehorster D.C., Nystrom M., Andersson R., Hessels R.S. Is human classification a gold standard in fixation detection?// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P. 167.
Mack D.J., Wadehn F. Looking sparse? Model-based saccade detection on the position profile// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.168.
Nakamura H., Kamiya S., Yoshida T. Understanding social interaction and social presence of others using simultaneous eye tracking of two people: behavioral data// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.238.
Pipa G. Using virtual reality to assess ethical decisions in road traffic scenarios: applicability of value of life based models and influences of time pressure// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.151.
Toivanen M.T., Hannula M. Using multiple gaze trackers and combining the results// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.122.
Zemblys R., Niehorster D.C., Holmqvist K. End-to-end eye-movement event detection using deep neural networks// ECEM 2017 Program and Abstracts Eds. Radach R., Deubel H., Vorstius C., Hofmann M.J. P.169.

Статьи по теме

MERC 2017 MERC 2017
MIT: трекер эмоций на запястье Исследовательская команда из Массачусетского технологического института…
Наш блог на сайте habrahabr.ru Блог на Хабре. Рынок систем детекции и распознавания: Эмоции и «эмоциональные…
Honda NeuV: автомобиль с эмоциональным интеллектом На состоявшейся в январе выставке CES 2017 в Лас-Вегасе (штат Невада,…
Эмоции в индустрии FoodTech Профессор экспериментальной психологии Оксфордского университета Великобритании…
Nadia – эмоциональный чат-бот Вы когда-нибудь мечтали встретиться взглядом с чат-ботом? Например, жалуясь на…

PR&Communications Staff

Подпишитесь на новости

  • Facebook
  • vkontakte
  • Linkedin
Популярные статьи
MERC 2017 MERC 2017
MIT: трекер эмоций на запястье Исследовательская команда из Массачусетского технологического института (MIT) под…
Наш блог на сайте habrahabr.ru Блог на Хабре. Рынок систем детекции и распознавания: Эмоции и «эмоциональные вычисления»
Смотреть весь список