Benutzerspezifische Werkzeuge

Information zum Seitenaufbau und Sprungmarken fuer Screenreader-Benutzer: Ganz oben links auf jeder Seite befindet sich das Logo der JLU, verlinkt mit der Startseite. Neben dem Logo kann sich rechts daneben das Bannerbild anschließen. Rechts daneben kann sich ein weiteres Bild/Schriftzug befinden. Es folgt die Suche. Unterhalb dieser oberen Leiste schliesst sich die Hauptnavigation an. Unterhalb der Hauptnavigation befindet sich der Inhaltsbereich. Die Feinnavigation findet sich - sofern vorhanden - in der linken Spalte. In der rechten Spalte finden Sie ueblicherweise Kontaktdaten. Als Abschluss der Seite findet sich die Brotkrumennavigation und im Fussbereich Links zu Barrierefreiheit, Impressum, Hilfe und das Login fuer Redakteure. Barrierefreiheit JLU - Logo, Link zur Startseite der JLU-Gießen Direkt zur Navigation vertikale linke Navigationsleiste vor Sie sind hier Direkt zum Inhalt vor rechter Kolumne mit zusaetzlichen Informationen vor Suche vor Fußbereich mit Impressum


Aktuelle Abschlussarbeiten

Themen für Bachelor- und Masterarbeiten    

Wir bieten zur Zeit 32 Bachelor- und  20 Masterarbeitsplätze an. MA-KandidatInnen müssen sich bei den jeweiligen BetreuerInnen bis zum 28.05.2022 melden. BA-KandidatInnen, die Interesse an einem Thema in der Allgemeinen Psychologie haben, kontaktieren bitte die jeweiligen BetreuerInnen. Kontaktieren Sie bitte auch eine/n von uns, wenn Sie generell Interesse an einer Arbeit in der Allgemeinen Psychologie haben, aber noch kein spezifisches Thema im Auge haben, sowie bei Rückfragen zu einzelnen Themen.


Abschlussarbeiten können in den folgenden Bereichen durchgeführt werden:


Abschlussarbeiten 2


Entwicklungsneuropsychologie von Wahrnehmung und Sensomotorik (Jutta Billino)


Video zur AG von Prof. Dr. Jutta Billino


Repräsentative Publikationen:

Hesse, C., Koroknai, L., & Billino, J. (2020). Individual differences in processing resources modulate bimanual interference in pointing. Psychological Research, 84, 440–453. doi:

Klever, L., Voudouris, D., Fiehler, K., & Billino, J. (2019). Age effects on sensorimotor predictions: What drives increased tactile suppression during reaching? Journal of Vision, 19(9):9, 1-17. doi:

Hesse, C., Billino, J., & Schenk, T. (2018). On the role of V1 in avoiding obstacles. Cortex, 98, 276-282. doi:

Billino, J., Hennig, J., & Gegenfurtner, K. (2016). The role of dopamine in anticipatory pursuit eye movements: Insights from genetic polymorphisms in healthy adults. eNeuro, 3(6). doi:


Behavioral signatures of face and object recognition (Katharina Dobs)

From a brief glimpse of a complex scene, we recognize people and objects, their relationships to each other, and the overall gist of the scene – all within a few hundred milliseconds and with no apparent effort. What are the computations underlying this remarkable ability and how are they implemented in the brain? To address these questions, our lab bridges recent advances in machine learning with human behavioral and neural data to provide a computationally precise account of how visual recognition works in humans.

Faces are a ‘special’ case of visual stimuli. Numerous behavioral and neural studies of face perception have revealed several hallmarks of face perception like the face inversion effect, other-race effect or familiarity effect, while neural studies have identified and characterized a network of face-selective areas in the brain. Moreover, we detect faces faster than other visual objects, and we even see faces in things (known as ‘pareidolia’). Despite this wealth of empirical data, most theories of face perception still rely on vague word models (e.g., ‘holistic processing’), and cannot explain how the brain transforms sensory representations of a face image into an abstract representation of that face.

Here we will use behavioral measures, such as response time, face detection and recognition accuracy and eye tracking to address questions such as:

  1. How fast are we in extracting different face dimensions, such as gender, age or identity? And is this process affected by familiarity with a face?
  2. Do we process faces in things quantitatively similar to real faces?
  3. Is the face inversion effect unique to faces, or can we also find it for other types of objects?

Behavioral signatures of face and object recognition


In these projects, you will learn more about face perception and visual recognition in general, how to set up behavioral or eye tracking experiments and how to analyze the outcome. Further, if you like, we can teach you more about deep neural networks as models for visual perception. If you are interested, just send an email to

[Wenn Sie mit Dr. Dobs die Aufnahme einer Abschlussarbeit in ihrer Arbeitsgruppe vereinbart haben, kreuzen Sie auf dem Wahlzettel bitte "Karl Gegenfurtner" an - wir teilen Sie dann zu]



Video zur AG von Dr. Katharina Dobs


Representative Publications:

Dobs, K., Isik, L., Pantazis, D., & Kanwisher, N. (2019). How face perception unfolds over time. Nature Communications, 10(1), 1258.

Dobs, K., Kell, A., Palmer, I., Cohen, M., & Kanwisher, N. (2019). Why Are Face and Object Processing Segregated in the Human Brain? Testing Computational Hypotheses with Deep Convolutional Neural Networks. Conference on Cognitive Computational Neuroscience (CCN).

Dobs, K., Yuan, J., Martinez, J., & Kanwisher, N. (2021). Using deep convolutional neural networks to test possible origins of human face perception abilities. bioRxiv.

Perception of material qualities (Katja Dörschner)

Our visual experience of the world is as much defined by the material qualities of objects as it is by their shape properties: keys look shiny, a tree trunk looks rough, and chocolate soufflé looks airy. Humans can easily and nearly instantaneously identify shapes and properties of materials and adjust their actions accordingly. Yet how the perceptual system accomplishes this is largely unknown. Using a combination of psychophysics, image analysis, computational modeling, eye -/ hand tracking, and fMRI we investigate questions such as: What information does the brain use to estimate and categorise material qualities? How do expectations about materials affect how we perceive them, look at them or interact with them? Does freely interacting with a material change how it feels or looks?

If you are interested, just send an email to


Material qualities


Representative Publications:

Schmid, A.C., Barla, P. & Doerschner, K. (2020). Material category determined by specular reflection structure mediates the processing of image features for perceived gloss. bioRxiv, doi: 

Schmid, A.C., Boyaci, H. & Doerschner, K. (2020). Dynamic dot displays reveal material motion network in the human brain. bioRxiv, doi: 

Alley, L.M., Schmid, A.C. & Doerschner, K. (2020). Expectations affect the perception of material properties. bioRxiv, doi:   

Schmid, A.C. & Doerschner, K. (2019). Representing stuff in the human brain. Cur. Op. Beh. Sci., 30, pp.178-185.   

Toscani, M., Yucel, E. & Doerschner, K. (2019). Gloss and speed judgements yield different fine tuning of saccadic sampling in dynamic scenes. i-Perception    

Ennis, R. & Doerschner, K. (2019) The color appearance of three-dimensional, curved, transparent objects.. doi:     

Cavdan, M., Doerschner, K. & Drewing, K. (2019). The many dimensions underlying perceived softness: How exploratory procedures are influences by material and the perceptual task. IEEE World Haptic Conference. doi:  

Schmid, A., Doerschner, K. (2018). The contribution of optical and mechanical properties to the perception of soft and hard breaking materials. Journal of Vision, 18(1):14, 1-32.

Haptische Wahrnehmung und visuell-haptische Interaktionen (Knut Drewing)


Video zur AG von Prof. Dr. Knut Drewing



Repräsentative Publikationen:

Cavdan, M., Doerschner, K., & Drewing, K. (2019). The Many Dimensions Underlying Perceived Softness: How Exploratory Procedures are Influenced by Material and the Perceptual Task. IEEE World Haptics Conference, WHC 2019 (pp. 437-442), IEEE.

Drewing, K., Weyel, C., Celebi, H., & Kaya, D. (2018). Systematic Relations between Affective and Sensory Material Dimensions in Touch. IEEE Transactions on Haptics 11(4), 611-622.

Kaim, L. & Drewing, K. (2011). Exploratory strategies in haptic softness discrimination are tuned to achieve high levels of task performance. IEEE Transactions on Haptics, 4. 242-252.

Wolf, C. Bergmann Tiest, W., & Drewing, K. (2018) A mass-density model can account for the size-weight illusion. PLOS ONE 13(2): e0190624


Perceiving and Acting in Virtual Environments (Katja Fiehler)

The information we perceive through our senses enable us to perform goal-directed actions. This involves the integration of our bodily senses, of objects in our environment and of information about the space we are acting in. In such a way, the actions that we perform do not only allow us to manipulate our external world, but also inform us about ourselves by providing sensory feedback. In other words: The relation between perception and action is not unidirectional, and our external world can likewise influence our perception and behaviour.

The link between perception and action has often been tested in quite abstract or limited environments. However, virtual reality (VR) as a tool allows us to create three-dimensional realistic looking environments to perform our studies in a highly controllable manner. Our research group offers different topics related to perception and action in VR. Possible research questions you could investigate with us are:

  • When does a virtual body feel like ours? And can VR provoke the feeling to be in a virtual environment, rather than seeing a virtual environment?
  • How do we deal with uncertainty in the world around us, for example, a suddenly appearing obstacle?
  • Do distractors within or outside reach space have a different effect on our reaching behavior?
  • How do the spatial and semantic properties of objects influence how we utilize them for actions, such as when looking for our keys in the living room?


VR Thesis


Check the individual websites of our team members ( for more information on our research! Feel free to contact any of us if you are interested in a project or if you have any questions. If you are interested, just send an email to



Video zur AG von Prof. Dr. Katja Fiehler



Representative Publications:

Karimpur, H., Eftekharifar, S., Troje, N., & Fiehler, K. (2020). Spatial coding for memory-guided reaching in visual and pictorial spaces. Journal of Vision, 20(4): 1, 1-12.

Karimpur, H., Morgenstern, Y., & Fiehler, K. (2019) Facilitation of allocentric coding by virtue of object-semantics. Scientific Reports, 9, 6263.

Klinghammer, M., Schütz, I., Blohm, G., & Fiehler, K. (2016). Allocentric information is used for memory-guided reaching in depth: a virtual reality study. Vision Research, 129, 13-24.


Sensorimotor predictions and control (Katja Fiehler)

Performing complex movements is a remarkably difficult task. First, humans make predictions about what will happen in the near future, which facilitates movement planning. Second, they use sensory feedback to correct any movement errors. Third, the human nervous system needs to deal with the abundance of sensory information when acting in a complex world. Interestingly, when predictions about future events are accurate, the associated sensory feedback is suppressed. This is evidenced by our inability to tickle ourselves. Like tactile sensations during self-tickling, auditory and visual sensations arising from our actions are also suppressed.

Our aim is to understand (1) the relationship between predictive and sensory feedback signals during goal-directed movements, and (2) how the processing of sensory information is shaped by predictive mechanisms and by the performed action itself. Possible research questions you could investigate with us are:

  • How do humans use visual and somatosensory feedback when reaching? Do they rely more on visual information, even when this information is unreliable? Does the less reliable sensory information get stronger suppressed?
  • How do humans use sensory feedback when reaching to a target that is unexpectedly displaced? When during the movement is feedback most important? Does it matter if humans reach to a visible target or to their other unseen hand?
  • How does sensory suppression compare across the different phases of the movement? Is suppression a more automatic process which modulates any sensory input around the action, or is it specific to the sensory consequence arising from the action?
  • How is suppression modulated when the movement leads to multiple sensory consequences? How do humans process sensory signals occurring around an action, but not arising from the action?


Prediction thesis


You will work closely with your advisor as part of an internationally vibrant group. During your project you will get the opportunity to learn how to program behavioural experiments, record arm movements and analyse behavioural and psychophysical data. If you are interested, just send an email to



Video zur AG von Prof. Dr. Katja Fiehler



Representative Publications:

Gertz H, Voudouris D, Fiehler K (2017) Reach-relevant somatosensory signals modulate tactile perception. Journal of Neurophysiology, 117(6): 2262-2268. 

Voudouris D, Broda MD, Fiehler K (2019) Anticipatory grasping control modulates somatosensory perception. Journal of Vision, 19(5): 4 

Fiehler, K., Brenner, E., & Spering, M. (2019). Prediction in goal-directed action. Journal of Vision19(9), 10, 1-21.


Shape and material perception (Roland Fleming)

How does the brain work out the physical properties of objects and how to guide our actions towards these objects? One important source of information about what objects are made out of – and how they respond to forces – is their shape. For example, soft materials rarely have hard corners, and rubbery materials can be bent. Shiny objects do look more or less glossy depending on their surface geometry. And where we grasp an object will depend strongly on its shape.




We are trying to understand how 3D shape and material properties interact, and how both affect behavior. The proposed projects use a combination of either (i) computer graphics and perception experiments to work out how the brain estimates the properties of objects based on shape; or (ii) real objects and grasping experiments to work out how estimations of object properties guide our actions. The thesis can be written in German or English. Possible research topics include:

  1. How do we work out material properties like softness or glossiness from object shape and object motion across many different simulated objects? What shape features or other sources of information is the visual system using when estimating these properties?
  2. How do we integrate shape and material of objects to guide our actions? How do we figure out the optimal way to grasp and lift different objects? How do we decide where to place our fingers?

If you are interested, just send an email to



Video zur AG von Prof. Dr. Roland Fleming



Representative Publications:

Klein, L.*, Maiello, G.*, Paulun, V. C., & Fleming R. W. (2020). Predicting precision grip grasp locations on three-dimensional objects. PLoS Computational Biology, 16(8): e1008081. [* equal authorship]

Phillips, F.*, & Fleming, R. W.* (2020). The Veiled Virgin illustrates visual segmentation of shape by cause. Proceedings of the National Academy of Sciences, 201917565. [* equal authorship]

Van Assen, J. J., Nishida, S., & Fleming, R. W. (2020). Visual perception of liquids: Insights from deep neural networks. PLoS Computational Biology, 16(8): e1008018.

Fleming, R. W., & Storrs, K. R. (2019). Learning to See Stuff. Current Opinion in Behavioral Sciences, 30: 100–108.

Schmidt, F., Phillips, F., & Fleming, R. W. (2019). Visual perception of shape-transforming processes: ‘Shape Scission’. Cognition, 189, 167-180.

Van Assen, J. J., Barla, P., & Fleming, R. W. (2018). Visual Features in the Perception of Liquids. Current Biology, 28(3), 452–458.

Fleming, R. W. (2017). Material Perception. Annual Reviews of Vision Science, 3(1). 365-388.

Schmidt, F., & Fleming, R. W. (2016). Visual perception of complex shape-transforming processes. Cognitive Psychology, 90: 48–70.

Verteilung von Aufmerksamkeit und Blick beim Computerspielen (Karl Gegenfurtner und Anna Schröger)

Wenn wir ein bewegtes Objekt, z.B. einen Ball betrachten, machen wir Vorhersagen darüber, was als nächstes passieren wird. Im Falle eines Balles sind dies beispielsweise Erwartungen darüber, ob der Ball seine Bewegung normal fortsetzt, auf eine Wand trifft und abprallt, oder von einer Person gefangen, weggeschlagen, oder anders abgelenkt wird.

Diese Vorhersagen basieren auf unserer Erfahrung mit der Umwelt. Aber was passiert nun, wenn sich die Bedingungen, unter denen wir Erfahrungen gesammelt haben, plötzlich ändern - wenn der Ball zum Beispiel einen Drall entwickelt, er weniger gut zu sehen ist (weil es dunkel geworden ist), oder wenn wir selbst anders mit ihm interagieren, beispielsweise mit feuchten Händen?

Solche Prozesse können wir untersuchen, indem wir die Blick- und Handbewegungen von Personen analysieren, die einen bewegten Gegenstand betrachten oder sogar mit ihm interagieren. Ähnliche Untersuchungen zeigen beispielsweise, dass Probanden einen Ball gleichmäßig mit ihrem Blick folgen können und mit Sakkaden an bestimmte Orte springen und fixieren, weil sie erwarten, dass dort etwas passieren wird (z.B., dass der Ball an dieser Stelle von der Wand abprallen wird). Diese prädiktiven (vorhersagenden) Augenbewegungen wollen wir nutzen, um zu verstehen, wie Probanden auf unerwartete Situationen reagieren und wie schnell sie sich an neue Bedingungen anpassen.

Um dies zu testen, wollen wir Probanden auf einem iPad ein Computerspiel („Pong“) spielen lassen und währenddessen die Eigenschaften des Balles, des Kontexts, oder der Interaktion des Spielers selbst mit dem Touchscreen manipulieren.


Verteilung von Aufmerksamkeit und Blick beim Computerspielen


Bei Interesse senden Sie eine E-Mail an


Repräsentative Publikationen:

Chen J, Valsecchi M, Gegenfurtner KR (2016). Role of motor execution in the ocular tracking of self-generated movements. J Neurophysiol, 16(6):2586-2593.

Fooken, J., Kreyenmeier, P., & Spering, M. (2021). The role of eye movements in manual interception: A mini-review. Vision Research, 183, 81-90.


Kontrolle von Augenbewegungen (Karl Gegenfurtner und Alexander Goettker)

Unsere Augen bewegen sich kontinuierlich und bieten einen direkten Zugang zur Verarbeitung von Informationen in unserem Gehirn: Was uns grade interessiert, das schauen wir uns auch an. Wie schnell und genau wir uns relevante Dinge angucken können, hängt von vielen Faktoren ab. Erfahrungen und Wissen können uns helfen interessante Objekte schneller zu finden, zusätzliche Information ermöglicht es, Bewegungen besser vorherzusagen und die Erwartung von Belohnung kann Prozesse beeinflussen und beschleunigen. Diese Mechanismen wollen wir untersuchen, indem wir die Augenbewegungen von Personen während verschiedener Aufgaben messen.

  • Wie verändern sich Augenbewegungen basierend auf unseren Erfahrungen und Erwartungen? Schauen wir ein Video von einem Eishockeyspiel, können wir dem Spielgeschehen und dem Puck relativ gut mit den Augen folgen. Wie unterscheiden sich die Augenbewegungen jetzt aber, wenn wir die gleiche Bewegung des Pucks präsentieren, aber ohne den Kontext des Eishockeyspiels?




  • Welche Rolle können erwartete Belohnungen bei der Bewegung unserer Augen spielen? Grundsätzlich wird unser Blick eher von auffälligen Objekten mit grellen Farben oder hohem Kontrast angezogen. Wie verändern sich jedoch unsere Blickbewegungen, wenn wir beispielsweise unauffällige Objekte präsentieren, die mit Belohnung assoziiert werden?
Bei Interesse kontaktieren Sie bitte



Video zur AG von Prof. Dr. Karl Gegenfurtner



Representative Publikationen:

Dorr, M., Martinetz, T., Gegenfurtner, K. R., & Barth, E. (2010). Variability of eye movements when viewing dynamic natural scenes. Journal of vision, 10(10), 28-28.

Kowler, E., Aitkin, C. D., Ross, N. M., Santos, E. M., & Zhao, M. (2014). Davida Teller Award Lecture 2013: The importance of prediction and anticipation in the control of smooth pursuit eye movements. Journal of vision, 14(5), 10-10.

Schütz, A. C., Trommershäuser, J., & Gegenfurtner, K. R. (2012). Dynamic integration of information about salience and value for saccadic eye movements. Proceedings of the National Academy of Sciences, 109(19), 7547-7552

Schütz, A. C., Braun, D. I., & Gegenfurtner, K. R. (2011). Eye movements and perception: A selective review. Journal of vision, 11(5), 9-9.


Farbwahrnehmung in Virtuellen Welten (Karl Gegenfurtner und Raquel Gil)

Unsere Farbwahrnehmung hängt nicht nur von der Zusammensetzung des Lichts ab, das von einem Objekt reflektiert wird und in unser Auge gelangt. Farbe hängt von der Verteilung des Lichts in der ganzen Szene ab. Unser visuelles System hat die herausragende Eigenschaft, an die vorherrschende Beleuchtung zu adaptieren und Objekten Farben zuordnen zu können, die invariant sind, also nur vom Objekt selbst abhängen. Virtual Reality bietet eine Möglichkeit, Objektfarben, Beleuchtungen und auch deren Interaktionen beliebig zu ändern und so herauszufinden, wie unser visuelles System Farbkonstanz ermöglicht. Wir benutzen dabei photo-realistische virtuelle Welten, mit denen die Probanden interagieren können.


Color in VR


Sie werden sich während im Rahmen ihrer Arbeit die Grundlagen der Farbwahrnehmung und der Farbkonstanz aneignen, mit der Technologie der Virtuellen Realität vertraut werden sowie psychophysische Messverfahren gründlich erlernen. Bei Interesse kontaktieren Sie bitte


Video zur AG von Prof. Dr. Karl Gegenfurtner




Representative Publikationen:

Witzel, C. & Gegenfurtner, K.R. (2018) Color perception: objects, constancy, and categories. Annual Review of Vision Science, 4, 475-499.


Helligkeit und Sättigung von Objekten (Karl Gegenfurtner und Laysa Hedjar)

Trotz eines hohen Grads an Standardisierung, die eine originalgetreue Wiedergabe der Farben von einzelnen Bildpunkten im Druck und auf Displays ermöglicht, ist noch nicht bekannt, welche Faktoren der Wahrnehmung von Helligkeit und Sättigung von ganzen Objekten unterliegen. Wir wollen dies sowohl mit Fotos von Objekten untersuchen als auch mit Objekten, die mittels Computergraphik generiert werden. Probanden schätzen die Helligkeit und Sättigung dieser Objekte ein und die Ergebnisse werden korreliert mit Eigenschaften der den Objekten entsprechenden Verteilungen von Farben und Intensitäten im Bild.


Color Dragon


Sie werden sich während im Rahmen ihrer Arbeit die Grundlagen der Farbwahrnehmung aneignen, mittels Computergraphik (z.B. Blender) künstliche Objekte erzeugen sowie psychophysische Messverfahren gründlich erlernen. Bei Interesse kontaktieren Sie bitte


Video zur AG von Prof. Dr. Karl Gegenfurtner




Representative Publikationen:

Witzel, C. & Gegenfurtner, K.R. (2018) Color perception: objects, constancy, and categories. Annual Review of Vision Science, 4, 475-499.


Farbdarstellung in der Kunst (Karl Gegenfurtner und Doris Braun)

Während die obige Arbeit sich damit beschäftig, wie Farben tatsächlich in Objekten und Szenen verteilt sind, geht es bei dieser Arbeit darum, zu erforschen, wie Künstler die Darstellung der Farbe von Objekten optimieren. Wir werden in digitalen Kunstsammlungen Fotos von Obst in Stillleben in Hinblick auf deren Farbe analysieren. Gleichzeitig geben Probanden Urteile über Helligkeit und Sättigung der Farben ab, die dann mit den Merkmalen der Farbverteilungen in den Gemälden verglichen werden.


Farbe in Kunst


Sie werden sich während im Rahmen ihrer Arbeit die Grundlagen der Farbwahrnehmung aneignen, digitale Bilder am Computer bearbeiten (z.B. Adobe Photoshop) und deren Farben analysieren, sowie psychophysische Messverfahren gründlich erlernen. Bei Interesse kontaktieren Sie bitte


Video zur AG von Prof. Dr. Karl Gegenfurtner




Representative Publikationen:

Braun, D. I., & Doerschner, K. (2019). Kandinsky or Me? How Free Is the Eye of the Beholder in Abstract Art? i-Perception, 10(5), 2041669519867973.

Witzel, C. & Gegenfurtner, K.R. (2018) Color perception: objects, constancy, and categories. Annual Review of Vision Science, 4, 475-499.


Individual differences in visual perception (Ben de Haas)

Does the world look the same to everyone? How could we know if visual perception varies from one person to the next?

The functional architecture of the human visual system only resolves those parts of a scene clearly that we directly look at; cluttered objects in the periphery are hard to tell apart. Therefore, visual perception is an active process – we constantly have to move our eyes to fixate visual objects of interest and the visual system needs to identify such fixation targets based on incomplete peripheral information.

Computational ‘salience models’ try to predict which parts of an image will be fixated, based on properties of the image. However, we recently found that fixation targets are not just a function of the image, but also of the individual observer. Observers freely viewing complex scenes systematically differ in the degree to which they are attracted by different types of visual objects. For instance, the eye movements of some people are more attracted to faces within the scenes than are those of others. Similar differences can be seen for the gaze ‘pull’ afforded by text, food, hands and other stimulus types.

We will run follow-up behavioural and eye tracking experiments to better understand the causes and consequences of these individual differences. Possible projects include a visual search experiment, testing whether fixation biases generalise from free viewing to task driven behaviour; and whether fixation biases predict detection performance for corresponding targets. If you are interested, please send an email to

[Wenn Sie mit Dr. de Haas die Aufnahme einer Abschlussarbeit in seiner Arbeitsgruppe vereinbart haben, kreuzen Sie auf dem Wahlzettel bitte "Karl Gegenfurtner" an - wir teilen Sie dann zu]


Change Blindness


Videos zur AG von Dr. Benjamin de Haas






Representative papers:

De Haas, B., Iakovidis, A. L., Schwarzkopf, D. S., & Gegenfurtner, K. R. (2019). Individual differences in visual salience vary along semantic dimensions. Proceedings of the National Academy of Sciences, 116(24), 11687-11692.

Constantino, J. N., Kennon-McGill, S., Weichselbaum, C., Marrus, N., Haider, A., Glowinski, A. L., ... & Jones, W. (2017). Infant viewing of social scenes is under genetic control and is atypical in autism. Nature, 547(7663), 340.

Kennedy, D. P., D’Onofrio, B. M., Quinn, P. D., Bölte, S., Lichtenstein, P., & Falck-Ytter, T. (2017). Genetic influence on eye movements to complex scenes at short timescales. Current Biology, 27(22), 3554-3560.

Xu, J., Jiang, M., Wang, S., Kankanhalli, M. S., & Zhao, Q. (2014). Predicting human gaze beyond pixels. Journal of vision, 14(1), 28-28.