Dr. Thomas K├╝bler

Eberhard-Karls-Universit├Ąt T├╝bingen
Wilhelm-Schickard Institut f├╝r Informatik
Lehrstuhl Technische Informatik
Sand 14, C205a
72076 T├╝bingen

Telefon: +49 (7071) 29-78996

E-Mail: kueblert

Sprechstunde: nach Vereinbarung

Kontakt-Formular

Forschungsinteressen

  • Computational models of human gaze behavior
  • Algorithms for the comparison of exploratory scanning patterns
  • Eye-tracking data quality in real-world scenarios
  • Gaze-aware driving assistance systems
  • Algorithms for the analysis and visualization of eye-tracking data

Lehrveranstaltungen

Publikationen

 Alle Publikationen im BibTex-Format

    2018

      M├Ąrz 2018
      • R. M. Aronson, T. Santini, T. C. K├╝bler, E. Kasneci, S. Srinivasa, H. Admoni
         Eye-Hand Behavior in Human-Robot Shared Manipulation
        Proceedings of the 13th Annual ACM/IEEE International Conference on Human Robot Interaction (To appear)

      2017

        September 2017
        • T. Santini, T. K├╝bler, L. Draghetti , P. Gerjets , W. Wagner , U. Trautwein , E. Kasneci
            Automatic Mapping of Remote Crowd Gaze to Stimuli in the Classroom
          Eye Tracking Enhanced Learning (ETEL2017)
        Juli 2017
        • Masterthesis by M. Niederfeld (Preprint)
            Learning discriminative scanpath encodings by saccade transition bundling
          University of Tuebingen
        Mai 2017
        • W. Fuhl, T. C. K├╝bler, D. Hospach, O. Bringmann, W. Rosenstiel, E. Kasneci
            Ways of improving the precision of eye tracking data: Controlling the influence of dirt and dust on pupil detection
          Journal of Eye Movement Research, 10 (3)
        M├Ąrz 2017
        • E. Kasneci, T.C. K├╝bler, K. Broelemann, G. Kasneci
            Aggregating physiological and eye tracking signals to predict perception in the absence of ground truth
          Computers in Human Behavior, Elsevier, 68, p.450ÔÇô455
        • G. Dambros, J. Ungewiss, T. K├╝bler, E. Kasneci, M. Sp├╝ler
            Monitoring Response Quality During Campimetry Via Eye-Tracking
          Proceedings of the 22st International Conference on Intelligent User Interfaces, IUI 2017, ACM
        Februar 2017
        • T. C. K├╝bler
             Algorithms for the comparison of visual scan patterns
          University of T├╝bingen
        • W. Fuhl, T. Santini, D. Geisler, T. K├╝bler, E. Kasneci
            EyeLad: Remote Eye Tracking Image Labeling Tool
          12th Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (VISIGRAPP 2017)

        2016

          Oktober 2016
          • T.C. K├╝bler, W. Fuhl, R. Rosenberg, W. Rosenstiel, E. Kasneci
              Novel methods for analysis and visualization of saccade trajectories
            ECCV Workshop VISART 2016
          September 2016
          • W. Fuhl, T. Santini, D. Geisler, T. K├╝bler, W. Rosenstiel, E. Kasneci
              Eyes Wide Open? Eyelid Location and Eye Aperture Estimation for Pervasive Eye Tracking in Real-World Scenarios
            ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct publication -- PETMEI 2016
          Juli 2016
          • T.C. K├╝bler, C. Rothe, U. Schiefer, W. Rosenstiel, E. Kasneci
              SubsMatch 2.0: Scanpath comparison and classification based on subsequence frequencies
            Behavior Research Methods, online first, p.1-17
          M├Ąrz 2016
          • T. Santini, W. Fuhl, T. K├╝bler, E. Kasneci
              Bayesian Identification of Fixations, Saccades, and Smooth Pursuits
            Proceedings of the Ninth Biennial ACM Symposium on Eye Tracking Research & Applications (ETRA), p.163--170
          • W. Fuhl, T. Santini, T. K├╝bler, E. Kasneci
              ElSe: Ellipse Selection for Robust Pupil Detection in Real-World Environments
            Proceedings of the Ninth Biennial ACM Symposium on Eye Tracking Research & Applications (ETRA), p.123--130
          • T.C. K├╝bler, T. Rittig, J. Ungewiss, C. Krauss, E. Kasneci [Clear vision award for the best short paper]
              Rendering refraction and reflection of eyeglasses for synthetic eye tracker images
            ACM Symposium on Eye Tracking Research and Applications, ETRA 2016
          Februar 2016
          • T. Santini, W. Fuhl, T. C. K├╝bler, E. Kasneci
              EyeRec: An Open-source Data Acquisition Software for Head-mounted Eye-tracking
            Proceedings of the 11th Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (VISIGRAPP), Vol.3: VISAPP, p.386--391

          2015

            Dezember 2015
            • T.C. K├╝bler, E. Kasneci, W. Rosenstiel, K. Aehling, M. Heister, K. Nagel, U. Schiefer, E. Papageorgiou
                 Driving with Homonymous Visual Field Defects: Driving Performance and Compensatory Gaze Movements
              Journal of Eye Movement Research, 8 (5), p.1-11
            November 2015
            Oktober 2015
            • T.C. K├╝bler, S. Eivazi, E. Kasneci
                Automated Visual Scanpath Analysis Reveals the Expertise Level of Micro-neurosurgeons
              MICCAIÔÇÖ15 Workshop on Interventional Microscopy
            September 2015
            • T. C. K├╝bler, E. Kasneci
                Automated Comparison of Scanpaths in Dynamic Scenes
              Pfeiffer, Thies ; Essig, Kai (Hrsg.): Proceedings of the 2nd International Workshop on Solutions for Automatic Gaze Data Analysis 2015 (SAGA 2015)
            • W. Fuhl, T. C. K├╝bler, K. Sippel, W. Rosenstiel, E. Kasneci
                ExCuSe: Robust Pupil Detection in Real-World Scenarios
              16th International Conference on Computer Analysis of Images and Patterns (CAIP 2015)
            August 2015
            • W. Fuhl, T. C. K├╝bler, K. Sippel, W. Rosenstiel, E. Kasneci
               Arbitrarily shaped areas of interest based on gaze density gradient
              European Conference on Eye Movements, ECEM 2015
            M├Ąrz 2015
            • E. Kasneci, T.C. K├╝bler, C. Braunagel, W. Fuhl, W. Stolzmann, W. Rosenstiel
                Exploiting the potential of eye movements analysis in the driving context
              15. Internationales Stuttgarter Symposium Automobil- und Motorentechnik, Springer Fachmedien Wiesbaden
            Januar 2015
            • K. Sippel, T.C. K├╝bler, W. Fuhl, G. Schievelbein, R. Rosenberg, W. Rosenstiel [Best paper award]
                Eyetrace2014: Eyetracking Data Analysis Tool
              8th International Conference on Health Informatics, Healthinf 2015
            Publikationen ohne Monatsangabe 2015
            • T. C. K├╝bler, K. Sippel, W. Fuhl, G. Schievelbein, J. Aufreiter, R. Rosenberg, W. Rosenstiel, E. Kasneci
                 Analysis of eye movements with Eyetrace
              Biomedical Engineering Systems and Technologies. Communications in Computer and Information Science (CCIS). Springer International Publishing
            • E. Kasneci, G. Kasneci, T. K├╝bler, W. Rosenstiel
                 Online Recognition of Fixations, Saccades, and Smooth Pursuits for Automated Analysis of Traffic Hazard Perception
              Artificial Neural Networks - Springer Series in Bio-/Neuroinformatics (Ed. Petia Koprinkova-Hristova, Valeri Mladenov, Nikola K. Kasabov), Springer International Publishing
            • J. Ungewiss, T. C. K├╝bler, D. R. Bukenberger, E. Kasneci, U. Schiefer
               Towards Automated Scan Pattern Analysis for Dynamic Scenes
              The Eye, The Brain And The Auto 2015

            2014

              Dezember 2014
              • T. C. K├╝bler, D. R. Bukenberger, J. Ungewiss, A. W├Ârner, C. Rothe, U. Schiefer, W. Rosenstiel, E. Kasneci
                  Towards automated comparison of eye-tracking recordings in dynamic scenes
                EUVIP 2014
              Mai 2014
              • T. C. K├╝bler, E. Kasneci, W. Rosenstiel, U. Schiefer, K. Nagel, E. Papageorgiou
                 Stress-indicators and exploratory gaze for the analysis of hazard perception in patients with visual field loss
                Transportation Research Part F: Traffic Psychology and Behaviour, 24, p.231 - 243
              M├Ąrz 2014
              • T. C. K├╝bler, E. Kasneci, W. Rosenstiel
                 Gaze guidance for the visually impaired
                Proceedings of the 8th Symposium on Eye Tracking Research and Applications, ETRA 2014, p.383-384
              • T. C. K├╝bler, E. Kasneci, W. Rosenstiel
                 SubsMatch: Scanpath Similarity in Dynamic Scenes based on Subsequence Frequencies
                Proceedings of the 8th Symposium on Eye Tracking Research and Applications, ETRA 2014, p.319-322
              • E. Kasneci, G. Kasneci, T. C. K├╝bler, W. Rosenstiel
                  The Applicability of Probabilistic Methods to the Online Recognition of Fixations and Saccades in Dynamic Scenes
                Proceedings of the 8th Symposium on Eye Tracking Research and Applications, ETRA 2014, p.323-326

              2013

                September 2013
                • U. Schiefer, T. C. K├╝bler, M. Heister, K. Aehling, K. Sippel, E. Papageorgiou, W. Rosenstiel, E. Tafaj
                   Auswirkungen des visuellen Explorationsverhaltens von Patienten mit binokularen Gesichtsfelddefekten auf alltagsrelevante T├Ątigkeiten ÔÇô Ergebnisse der TUTOR-Studie
                  111. DOG-Kongress
                • E. Tafaj, T. C. K├╝bler, G. Kasneci, W. Rosenstiel, M. Bogdan
                   Online Classification of Eye Tracking Data for Automated Analysis of Traffic Hazard Perception
                  Artificial Neural Networks and Machine Learning (ICANN 2013)

                2011

                  Juni 2011
                  • E. Tafaj, T. C. K├╝bler, J. Peter, U. Schiefer, M. Bogdan and W. Rosenstiel
                     Vishnoo - An Open-Source Software for Vision Research
                    24th IEEE International Symposium on Computer-Based Medical Systems (CBMS 2011), Bristol, UK

                  Offene studentische Arbeiten

                  1. Automatisierter Scanpath Vergleich
                  2. Saccade Bundles
                  3. Crowd attention tracking
                  4. Ein Dashboard f├╝r Eyetrace
                  5. Gaze Counter
                  6. Vein extraction and eye rotation determination
                  7. EyeTrace CUDA extesion
                  8. 3D Eyeball generation based on vein motion

                  Automatisierter Scanpath Vergleich

                  Beschreibung:
                  Menschen k├Ânnen ihre Aufmerksamkeit gezielt lenken. Eine Methode diese Aufmerksamkeitszuweisung aufzuzeichnen sind Eye-Tracking Aufnahmen: Objekte, die momentan interessant sind, werden mit den Augen fixiert. Oftmals ist es nicht nur interessant, wohin einzelne Individuen ihre Aufmerksamkeit lenken, sondern auch ein Vergleich zwischen Individuen oder verschiedenen Zeitpunkten. Hierzu werden diese auf einfache Elemente reduziert: Fixationen und Sakkaden (schnelle Augenbewegungen). Die zeitliche Abfolge und r├Ąumliche Position von Fixationen und Sakkaden nennt man Scanpath. Aktuelle Vergleichsmetoden basieren auf zwei verschiedenen Ans├Ątzen:

                  • Umwandlung des Scanpaths in eine String-Repr├Ąsentation und Anwenden bioinformatischer String-Alignment Techniken.
                  • Vergleich der Scanpaths als Vektorpfad.

                  Beide Methoden zeichne sich durch massive Einschr├Ąnkungen und sehr begrenzte Anwendbarkeit aus: Sie funktionieren generell nur bei einfachen Scanpaths und unbewegtem Betrachter gut. Deshalb ist die Analyse von Hand noch immer sehr verbreitet, obwohl hierdurch Objektivit├Ąt verloren geht und viel Zeit n├Âtig ist.

                  Aufgabenstellung:
                  Ziel dieser Arbeit ist die Verbesserung bestehender Scanpath Vergleichsmethoden. Dies beinhaltet zum einen das Finden geeigneter Distanzmetriken, zum anderen die Anwendung von Pattern-Recognition Verfahren. Das Erkennen und Wiederfinden kurzer Wiederholter Muster (Schulterblick oder Blick in den R├╝ckspiegel beim Autofahren) k├Ânnte die momentane Verfahren deutlich verbessern.

                  Saccade Bundles

                  This project is about applying (and probably adjusting) a linear time clustering algorithm for brain fiber activity to work with saccadic trajectories. The result will be a clustering of saccades (= saccade bundle).

                  The algorithm will be applied to eye-tracking data recorded while viewing fine art and while driving. These bundles could give insight into the perception of art (e.g. do saccades follow composition lines) and can be used to quantify saccadic distributions and traversals towards different interesting areas for driving (e.g. control gaze towards the rear mirror). The algorithm will be included in our eye-tracking data analysis software EyeTrace.

                  Crowd attention tracking

                  We want to be able to track eye and head movements of a crowd of people, such as a whole classroom. Thereby we can infer measures about current attentional focus, e.g. whether students pay attention to the lecture material and when attention decreases. Therefore we will record high resolution videos of multiple persons in a naturalistic setting, including a variety of head poses and eye positions.

                   

                  This work can be subdivided into (1) finding faces in the video stream, (2) determining face orientation, (3) extracting the eye region, (4) applying calibration free gaze direction calculations.

                  Ein Dashboard f├╝r Eyetrace

                  Die Eyetrace Software bietet eine Vielzahl an Visualisierungsm├Âglchkeiten f├╝r Eye-Tracking Daten. In diesem Projekt soll eine grafisch ansprechende ├ťbersicht ├╝ber die momentan ins Programm geladenen Daten erzeugt werden.

                   

                  Aufgabenstellung:

                  Entwicklung eines Plugins f├╝r die Eyetrace Software in C++/Qt. Es soll ein Dashboard mit einer ├ťbersicht der aktuellen ausgew├Ąhlten Daten erstellt werden. Diese werden grafisch dargestellt, sodass beispielsweise die Anzahl der Aufnahmen pro Probandengruppe, die durchschnittliche Anzahl an Fixationen pro Aufnahme, der Zeitverlauf ├╝ber die Aufnahmedauer und weitere wichtige Kennwerte auf einen Blick einsehbar sind.

                  Gaze Counter

                  W├Ąhrend in der Online-Werbebranche die Erfolgskontrolle f├╝r eine bestimmte Werbeanzeige z.B. durch die Anzahl der Klicks oder eine Klick/Kauf-Rate relativ einfach durchgef├╝hrt werden kann, ist dies f├╝r Offline-Medien nicht immer ganz so einfach: Wie oft wird beispielsweise ein bestimmtes Plakat pro Tag betrachtet? Erregt ein Design mehr Aufmerksamkeit, als ein anderes? Ist ein h├Âherer Preis f├╝r einen bestimmten Plakatstandort gerechtfertigt? Das Blickverhalten ist in der Werbebranche ein g├Ąngiger Indikator. Eye-Tracking Studien sind aber teuer und aufw├Ąndig auszuwerten.

                  Aufgabestellung:

                  In diesem Projekt soll ein sogenannter ÔÇŁGaze CounterÔÇŁ erstellt werden: Eine kamerabasierte Messvorrichtung, die das Blickverhalten von Passanten automatisch auswerten kann und dabei bestimmt, ob ein Objekt in seiner N├Ąhe (z.B. ein Werbeplakat, auf das der Gaze Counter aufgesetzt wurde) betrachtet wurde. So kann mit wenig Aufwand gemessen werden, wann wie viele Personen f├╝r wie lange auf ein Objekt geschaut haben.

                  Vein extraction and eye rotation determination

                  The first step is setting up an recording environment with fixed subject position. This
                  environment is used for data acquisition with predefined head rotations of the subjects. Based on this data an algorithm has to be developed measuring the eyeball rotation of the subject. The resulting angle is then compared and validated based on the head rotation.

                  EyeTrace CUDA extesion

                  EyeTrace is a software for gaze data visualization and analysis. Due to the increasing amount of data these visualizations need more computation time. In this thesis existing visualizations should be implemented using CUDA for GPU computations. Additionally this includes a data storage model making it possible to shift the data between the GPU and the host computer.
                  Due to the fact that nowadays not all computers have a CUDA capable card the modul should also allow CPU computations. This should be determined automatically by the module.

                  3D Eyeball generation based on vein motion

                  The first step is robust feature extraction. This can be done using SURF, SIFT, BRISK
                  or MSER features if sufficient. Those features have to be mapped on features found in
                  consecutive images. Based on the displacement a 3D model has to be computed. This model is used afterwards for gaze position estimation.