Benutzerspezifische Werkzeuge

Information zum Seitenaufbau und Sprungmarken fuer Screenreader-Benutzer: Ganz oben links auf jeder Seite befindet sich das Logo der JLU, verlinkt mit der Startseite. Neben dem Logo kann sich rechts daneben das Bannerbild anschließen. Rechts daneben kann sich ein weiteres Bild/Schriftzug befinden. Es folgt die Suche. Unterhalb dieser oberen Leiste schliesst sich die Hauptnavigation an. Unterhalb der Hauptnavigation befindet sich der Inhaltsbereich. Die Feinnavigation findet sich - sofern vorhanden - in der linken Spalte. In der rechten Spalte finden Sie ueblicherweise Kontaktdaten. Als Abschluss der Seite findet sich die Brotkrumennavigation und im Fussbereich Links zu Barrierefreiheit, Impressum, Hilfe und das Login fuer Redakteure. Barrierefreiheit JLU - Logo, Link zur Startseite der JLU-Gießen Direkt zur Navigation vertikale linke Navigationsleiste vor Sie sind hier Direkt zum Inhalt vor rechter Kolumne mit zusaetzlichen Informationen vor Suche vor Fußbereich mit Impressum

Artikelaktionen

Abschlussarbeiten 2020

Themen für Bachelor- und Masterarbeiten    

Wir bieten zur Zeit 36 Bachelor- und  21 Masterarbeitsplätze an. MA-KandidatInnen müssen sich bei den jeweiligen BetreuerInnen bis zum 09.06.2020 bewerben. BA-KandidatInnen, die Interesse an einem Thema in der Allgemeinen Psychologie haben, sollten sich der üblichen Prozedur entsprechend anmelden. Bei Rückfragen zu einzelnen Themen kontaktieren Sie bitte die jeweiligen BetreuerInnen.


Abschlussarbeiten können in den folgenden Bereichen durchgeführt werden:

 

Entwicklungsneuropsychologie von Wahrnehmung und Sensomotorik (Jutta Billino)

Repräsentative Publikationen:

Hesse, C., Koroknai, L., & Billino, J. (2020). Individual differences in processing resources modulate bimanual interference in pointing. Psychological Research, 84, 440–453. doi: https://doi.org/10.1007/s00426-018-1050-3

Klever, L., Voudouris, D., Fiehler, K., & Billino, J. (2019). Age effects on sensorimotor predictions: What drives increased tactile suppression during reaching? Journal of Vision, 19(9):9, 1-17. doi: https://doi.org/10.1167/19.9.9

Hesse, C., Billino, J., & Schenk, T. (2018). On the role of V1 in avoiding obstacles. Cortex, 98, 276-282. doi: https://doi.org/10.1016/j.cortex.2017.11.004

Billino, J., Hennig, J., & Gegenfurtner, K. (2016). The role of dopamine in anticipatory pursuit eye movements: Insights from genetic polymorphisms in healthy adults. eNeuro, 3(6). doi: https://doi.org/10.1523/ENEURO.0190-16.2016

 

Perception of material qualities (Katja Dörschner)

Our visual experience of the world is as much defined by the material qualities of objects as it is by their shape properties: keys look shiny, a tree trunk looks rough, and chocolate soufflé looks airy. Humans can easily and nearly instantaneously identify shapes and properties of materials and adjust their actions accordingly. Yet how the perceptual system accomplishes this is largely unknown. Using a combination of psychophysics, image analysis, computational modeling, eye -/ hand tracking, and fMRI we investigate questions such as: What information does the brain use to estimate and categorise material qualities? How do expectations about materials affect how we perceive them, look at them or interact with them? Does freely interacting with a material change how it feels or looks?

 

Material qualities

 

Representative Publications:

Schmid, A.C., Barla, P. & Doerschner, K. (2020). Material category determined by specular reflection structure mediates the processing of image features for perceived gloss. bioRxiv, doi: https://doi.org/10.1101/2019.12.31.892083 

Schmid, A.C., Boyaci, H. & Doerschner, K. (2020). Dynamic dot displays reveal material motion network in the human brain. bioRxiv, doi: https://doi.org/10.1101/2020.03.09.983593 

Alley, L.M., Schmid, A.C. & Doerschner, K. (2020). Expectations affect the perception of material properties. bioRxiv, doi:https://doi.org/10.1101/744458.   

Schmid, A.C. & Doerschner, K. (2019). Representing stuff in the human brain. Cur. Op. Beh. Sci., 30, pp.178-185.   

Toscani, M., Yucel, E. & Doerschner, K. (2019). Gloss and speed judgements yield different fine tuning of saccadic sampling in dynamic scenes. i-Perception https://doi.org/10.1177/2041669519889070    

Ennis, R. & Doerschner, K. (2019) The color appearance of three-dimensional, curved, transparent objects.. doi: https://doi.org/10.1101/2019.12.30.891341     

Cavdan, M., Doerschner, K. & Drewing, K. (2019). The many dimensions underlying perceived softness: How exploratory procedures are influences by material and the perceptual task. IEEE World Haptic Conference. doi:https://doi.org/10.1109/WHC.2019.8816088  

Schmid, A., Doerschner, K. (2018). The contribution of optical and mechanical properties to the perception of soft and hard breaking materials. Journal of Vision, 18(1):14, 1-32.


Haptische Wahrnehmung und visuell-haptische Interaktionen (Knut Drewing)

Repräsentative Publikationen:

Cavdan, M., Doerschner, K., & Drewing, K. (2019). The Many Dimensions Underlying Perceived Softness: How Exploratory Procedures are Influenced by Material and the Perceptual Task. IEEE World Haptics Conference, WHC 2019 (pp. 437-442), IEEE.

Drewing, K., Weyel, C., Celebi, H., & Kaya, D. (2018). Systematic Relations between Affective and Sensory Material Dimensions in Touch. IEEE Transactions on Haptics 11(4), 611-622.

Kaim, L. & Drewing, K. (2011). Exploratory strategies in haptic softness discrimination are tuned to achieve high levels of task performance. IEEE Transactions on Haptics, 4. 242-252.

Wolf, C. Bergmann Tiest, W., & Drewing, K. (2018) A mass-density model can account for the size-weight illusion. PLOS ONE 13(2): e0190624

 

Perceiving and Acting in Virtual Environments (Katja Fiehler)

The information we perceive through our senses enable us to perform goal-directed actions. This involves the integration of our bodily senses, of objects in our environment and of information about the space we are acting in. In such a way, the actions that we perform do not only allow us to manipulate our external world, but also inform us about ourselves by providing sensory feedback. In other words: The relation between perception and action is not unidirectional, and our external world can likewise influence our perception and behaviour.

The link between perception and action has often been tested in quite abstract or limited environments. However, virtual reality (VR) as a tool allows us to create three-dimensional realistic looking environments to perform our studies in a highly controllable manner. Our research group offers different topics related to perception and action in VR. Possible research questions you could investigate with us are:

  • When does a virtual body feel like ours? And can VR provoke the feeling to be in a virtual environment, rather than seeing a virtual environment?
  • How do we deal with uncertainty in the world around us, for example, a suddenly appearing obstacle?
  • Do distractors within or outside reach space have a different effect on our reaching behavior?
  • How do the spatial and semantic properties of objects influence how we utilize them for actions, such as when looking for our keys in the living room?

 

VR Thesis

 

Check the individual websites of our team members (https://www.uni-giessen.de/fbz/fb06/psychologie/abt/allgemeine-psychologie/wh/Team) for more information on our research! Feel free to contact any of us if you are interested in a project or if you have any questions.

Representative Publications:

Karimpur, H., Eftekharifar, S., Troje, N., & Fiehler, K. (2020). Spatial coding for memory-guided reaching in visual and pictorial spaces. Journal of Vision, 20(4): 1, 1-12.

Karimpur, H., Morgenstern, Y., & Fiehler, K. (2019) Facilitation of allocentric coding by virtue of object-semantics. Scientific Reports, 9, 6263.

Klinghammer, M., Schütz, I., Blohm, G., & Fiehler, K. (2016). Allocentric information is used for memory-guided reaching in depth: a virtual reality study. Vision Research, 129, 13-24.

 

Sensorimotor predictions and control (Katja Fiehler)

Performing complex movements is a remarkably difficult task. First, humans make predictions about what will happen in the near future, which facilitates movement planning. Second, they use sensory feedback to correct any movement errors. Third, the human nervous system needs to deal with the abundance of sensory information when acting in a complex world. Interestingly, when predictions about future events are accurate, the associated sensory feedback is suppressed. This is evidenced by our inability to tickle ourselves. Like tactile sensations during self-tickling, auditory and visual sensations arising from our actions are also suppressed.

Our aim is to understand (1) the relationship between predictive and sensory feedback signals during goal-directed movements, and (2) how the processing of sensory information is shaped by predictive mechanisms and by the performed action itself. Possible research questions you could investigate with us are:

  • How do humans use visual and somatosensory feedback when reaching? Do they rely more on visual information, even when this information is unreliable? Does the less reliable sensory information get stronger suppressed?
  • How do humans use sensory feedback when reaching to a target that is unexpectedly displaced? When during the movement is feedback most important? Does it matter if humans reach to a visible target or to their other unseen hand?
  • How does sensory suppression compare across the different phases of the movement? Is suppression a more automatic process which modulates any sensory input around the action, or is it specific to the sensory consequence arising from the action?
  • How is suppression modulated when the movement leads to multiple sensory consequences? How do humans process sensory signals occurring around an action, but not arising from the action?

 

Prediction thesis

 

You will work closely with your advisor as part of an internationally vibrant group. During your project you will get the opportunity to learn how to program behavioural experiments, record arm movements and analyse behavioural and psychophysical data.

Representative Publications:

Gertz H, Voudouris D, Fiehler K (2017) Reach-relevant somatosensory signals modulate tactile perception. Journal of Neurophysiology, 117(6): 2262-2268. 

Voudouris D, Broda MD, Fiehler K (2019) Anticipatory grasping control modulates somatosensory perception. Journal of Vision, 19(5): 4 

Fiehler, K., Brenner, E., & Spering, M. (2019). Prediction in goal-directed action. Journal of Vision19(9), 10, 1-21.

 

Shape and material perception (Roland Fleming)

How does the brain work out the physical properties of objects and how to guide our actions towards these objects? One important source of information about what objects are made out of – and how they respond to forces – is their shape. For example, soft materials rarely have hard corners, and rubbery materials can be bent. Shiny objects do look more or less glossy depending on their surface geometry. And where we grasp an object will depend strongly on its shape.

 

FlemingLab1FlemingLab2Fleminglab3

 

We are trying to understand how 3D shape and material properties interact, and how both affect behavior. The proposed projects use a combination of either (i) computer graphics and perception experiments to work out how the brain estimates the properties of objects based on shape; or (ii) real objects and grasping experiments to work out how estimations of object properties guide our actions. The thesis can be written in German or English. Possible research topics include:

  1. How do we work out material properties like softness or glossiness from object shape and object motion across many different simulated objects? What shape features or other sources of information is the visual system using when estimating these properties?
  2. How do we integrate shape and material of objects to guide our actions? How do we figure out the optimal way to grasp and lift different objects? How do we decide where to place our fingers?

Representative Publications:

Fleming, R. W. (2017). Material Perception. Annual Reviews of Vision Science, 3(1). 365-388. DOI: https://doi.org/10.1146/annurev-vision-102016-061429

Klein L.K.*, Maiello G.*, Paulun V.C. and Fleming, R.W. (2019). How humans grasp three-dimensional objects. bioRxiv, 476176. DOI: https://doi.org/10.1101/476176    

Paulun, V.C., Schmidt, F., Van Assen, J.J. and R.W. Fleming (2017). Shape, motion and optical cues to stiffness of elastic objects. Journal of Vision, 17(1):20, 1-22. DOI: https://doi.org/10.1167/17.1.20


Kontrolle von Augenbewegungen (Karl Gegenfurtner und Alexander Goettker)

Unsere Augen bewegen sich kontinuierlich und bieten einen direkten Zugang zur Verarbeitung von Informationen in unserem Gehirn: Was uns grade interessiert, das schauen wir uns auch an. Wie schnell und genau wir uns relevante Dinge angucken können, hängt von vielen Faktoren ab. Erfahrungen und Wissen können uns helfen interessante Objekte schneller zu finden, zusätzliche Information ermöglicht es, Bewegungen besser vorherzusagen und die Erwartung von Belohnung kann Prozesse beeinflussen und beschleunigen. Diese Mechanismen wollen wir untersuchen, indem wir die Augenbewegungen von Personen während verschiedener Aufgaben messen.

  • Wie verändern sich Augenbewegungen basierend auf unseren Erfahrungen und Erwartungen? Schauen wir ein Video von einem Eishockeyspiel, können wir dem Spielgeschehen und dem Puck relativ gut mit den Augen folgen. Wie unterscheiden sich die Augenbewegungen jetzt aber, wenn wir die gleiche Bewegung des Pucks präsentieren, aber ohne den Kontext des Eishockeyspiels?

 

Hockey.gif

 

  • Welche Rolle können erwartete Belohnungen bei der Bewegung unserer Augen spielen? Grundsätzlich wird unser Blick eher von auffälligen Objekten mit grellen Farben oder hohem Kontrast angezogen. Wie verändern sich jedoch unsere Blickbewegungen, wenn wir beispielsweise unauffällige Objekte präsentieren, die mit Belohnung assoziiert werden?

Representative Publikationen:

Dorr, M., Martinetz, T., Gegenfurtner, K. R., & Barth, E. (2010). Variability of eye movements when viewing dynamic natural scenes. Journal of vision, 10(10), 28-28.

Kowler, E., Aitkin, C. D., Ross, N. M., Santos, E. M., & Zhao, M. (2014). Davida Teller Award Lecture 2013: The importance of prediction and anticipation in the control of smooth pursuit eye movements. Journal of vision, 14(5), 10-10.

Schütz, A. C., Trommershäuser, J., & Gegenfurtner, K. R. (2012). Dynamic integration of information about salience and value for saccadic eye movements. Proceedings of the National Academy of Sciences, 109(19), 7547-7552

Schütz, A. C., Braun, D. I., & Gegenfurtner, K. R. (2011). Eye movements and perception: A selective review. Journal of vision, 11(5), 9-9.

 

Farbwahrnehmung in Virtuellen Welten (Karl Gegenfurtner und Raquel Gil)

Unsere Farbwahrnehmung hängt nicht nur von der Zusammensetzung des Lichts ab, das von einem Objekt reflektiert wird und in unser Auge gelangt. Farbe hängt von der Verteilung des Lichts in der ganzen Szene ab. Unser visuelles System hat die herausragende Eigenschaft, an die vorherrschende Beleuchtung zu adaptieren und Objekten Farben zuordnen zu können, die invariant sind, also nur vom Objekt selbst abhängen. Virtual Reality bietet eine Möglichkeit, Objektfarben, Beleuchtungen und auch deren Interaktionen beliebig zu ändern und so herauszufinden, wie unser visuelles System Farbkonstanz ermöglicht. Wir benutzen dabei photo-realistische virtuelle Welten, mit denen die Probanden interagieren können.

 

Color in VR

 

Sie werden sich während im Rahmen ihrer Arbeit die Grundlagen der Farbwahrnehmung und der Farbkonstanz aneignen, mit der Technologie der Virtuellen Realität vertraut werden sowie psychophysische Messverfahren gründlich erlernen. Bei Interesse kontaktieren Sie bitte gegenfurtner@uni-giessen.de.

Representative Publikationen:

Witzel, C. & Gegenfurtner, K.R. (2018) Color perception: objects, constancy, and categories. Annual Review of Vision Science, 4, 475-499.

 

Helligkeit und Sättigung von Objekten (Karl Gegenfurtner und Matteo Toscani)

Trotz eines hohen Grads an Standardisierung, die eine originalgetreue Wiedergabe der Farben von einzelnen Bildpunkten im Druck und auf Displays ermöglicht, ist noch nicht bekannt, welche Faktoren der Wahrnehmung von Helligkeit und Sättigung von ganzen Objekten unterliegen. Wir wollen dies sowohl mit Fotos von Objekten untersuchen als auch mit Objekten, die mittels Computergraphik generiert werden. Probanden schätzen die Helligkeit und Sättigung dieser Objekte ein und die Ergebnisse werden korreliert mit Eigenschaften der den Objekten entsprechenden Verteilungen von Farben und Intensitäten im Bild.

 

Color Dragon

 

Sie werden sich während im Rahmen ihrer Arbeit die Grundlagen der Farbwahrnehmung aneignen, mittels Computergraphik (z.B. Blender) künstliche Objekte erzeugen sowie psychophysische Messverfahren gründlich erlernen. Bei Interesse kontaktieren Sie bitte gegenfurtner@uni-giessen.de.

Representative Publikationen:

Witzel, C. & Gegenfurtner, K.R. (2018) Color perception: objects, constancy, and categories. Annual Review of Vision Science, 4, 475-499.

 

Farbdarstellung in der Kunst (Karl Gegenfurtner und Doris Braun)

Während die obige Arbeit sich damit beschäftig, wie Farben tatsächlich in Objekten und Szenen verteilt sind, geht es bei dieser Arbeit darum, zu erforschen, wie Künstler die Darstellung der Farbe von Objekten optimieren. Wir werden in digitalen Kunstsammlungen Fotos von Obst in Stillleben in Hinblick auf deren Farbe analysieren. Gleichzeitig geben Probanden Urteile über Helligkeit und Sättigung der Farben ab, die dann mit den Merkmalen der Farbverteilungen in den Gemälden verglichen werden.

 

Farbe in Kunst

 

Sie werden sich während im Rahmen ihrer Arbeit die Grundlagen der Farbwahrnehmung aneignen, digitale Bilder am Computer bearbeiten (z.B. Adobe Photoshop) und deren Farben analysieren, sowie psychophysische Messverfahren gründlich erlernen. Bei Interesse kontaktieren Sie bitte gegenfurtner@uni-giessen.de.

Representative Publikationen:

Braun, D. I., & Doerschner, K. (2019). Kandinsky or Me? How Free Is the Eye of the Beholder in Abstract Art? i-Perception, 10(5), 2041669519867973.

Witzel, C. & Gegenfurtner, K.R. (2018) Color perception: objects, constancy, and categories. Annual Review of Vision Science, 4, 475-499.

 

Individual differences in visual perception (Ben de Haas)

Does the world look the same to everyone? How could we know if visual perception varies from one person to the next?

The functional architecture of the human visual system only resolves those parts of a scene clearly that we directly look at; cluttered objects in the periphery are hard to tell apart. Therefore, visual perception is an active process – we constantly have to move our eyes to fixate visual objects of interest and the visual system needs to identify such fixation targets based on incomplete peripheral information.

Computational ‘salience models’ try to predict which parts of an image will be fixated, based on properties of the image. However, we recently found that fixation targets are not just a function of the image, but also of the individual observer. Observers freely viewing complex scenes systematically differ in the degree to which they are attracted by different types of visual objects. For instance, the eye movements of some people are more attracted to faces within the scenes than are those of others. Similar differences can be seen for the gaze ‘pull’ afforded by text, food, hands and other stimulus types.

We will run follow-up behavioural and eye tracking experiments to better understand the causes and consequences of these individual differences. Possible projects include a visual search experiment, testing whether fixation biases generalise from free viewing to task driven behaviour; and whether fixation biases predict detection performance for corresponding targets. If you are interested, please send an email to benjamindehaas@gmail.com

 

Change Blindness

 

Representative papers:

De Haas, B., Iakovidis, A. L., Schwarzkopf, D. S., & Gegenfurtner, K. R. (2019). Individual differences in visual salience vary along semantic dimensions. Proceedings of the National Academy of Sciences, 116(24), 11687-11692.

Constantino, J. N., Kennon-McGill, S., Weichselbaum, C., Marrus, N., Haider, A., Glowinski, A. L., ... & Jones, W. (2017). Infant viewing of social scenes is under genetic control and is atypical in autism. Nature, 547(7663), 340.

Kennedy, D. P., D’Onofrio, B. M., Quinn, P. D., Bölte, S., Lichtenstein, P., & Falck-Ytter, T. (2017). Genetic influence on eye movements to complex scenes at short timescales. Current Biology, 27(22), 3554-3560.

Xu, J., Jiang, M., Wang, S., Kankanhalli, M. S., & Zhao, Q. (2014). Predicting human gaze beyond pixels. Journal of vision, 14(1), 28-28.