HNO

, Volume 61, Issue 3, pp 202–210

Beeinflussung objektbildender Leistungen des Hörsinns durch multimodale Interaktion

Authors

    • Universitätsklinik und Poliklinik für Hals-Nasen-Ohren-Heilkunde, Kopf- und Hals-ChirurgieUniversitätsklinikum Halle (Saale)
Leitthema

DOI: 10.1007/s00106-012-2524-z

Cite this article as:
Rahne, T. HNO (2013) 61: 202. doi:10.1007/s00106-012-2524-z

Zusammenfassung

Hintergrund

Die Zuordnung gleichzeitig auftretender Schallreize zu verschiedenen auditorischen Objekten geschieht auf der Basis ihrer zeitlichen und spektralen Eigenschaften. Wenn hohe und tiefe Töne abwechselnd präsentiert werden, können diese als eine zusammenhängende Melodie, oder aber auch als zwei parallele, aus den Tönen der jeweiligen Frequenz bestehende Melodien wahrgenommen werden. In einem Zwischenbereich sind beide Perzepte möglich. Diese Arbeit untersucht, inwieweit diese ambige Wahrnehmungssituation durch synchron zu den Tönen präsentierte visuelle Reize beeinflusst werden kann und damit zu einem eindeutigen auditorischen Perzept führt.

Methoden

Töne aus zwei verschiedenen Frequenzbereichen wurden abwechselnd präsentiert, mit visuellen Stimuli entweder synchron zu dem tieffrequenten 3-Ton-Muster (Tripel) oder dem frequenzübergreifenden Intensitätsmuster. Als Indikator für eine segregierte auditorische Organisation ohne Aufmerksamkeit der Probanden auf die Töne wurde die Mismatch-Negativity (MMN) als Komponente der auditorisch evozierten Potenziale gemessen.

Ergebnisse

Die Ergebnisse zeigen einen modalitätsübergreifenden Effekt auf die auditorische Objektbildung. Die zunächst ambige auditorische Situation wurde durch synchron präsentierte visuelle Stimuli, die entweder eine segregierte oder integrierte Wahrnehmung der Töne verstärken sollten, aufgelöst. Vier neuronale Quellen konnten gefunden werden, die die beobachtete MMN erklären.

Schlüsselwörter

Auditorische Szenenanalyse Mismatch-Negativity Visuelle Wahrnehmung Audiovisuelle Integration Auditorische Wahrnehmung

Influence of auditory object formation by multimodal interaction

Abstract

Background

The task of assigning concurrent sounds to different auditory objects is known to depend on temporal and spectral cues. When tones of high and low frequencies are presented in alternation, they can be perceived as a single (integrated) melody, or as two parallel (segregated) melodic lines, according to the presentation rate and frequency distance between the sounds. At an intermediate distance or stimulation rate, the percept is ambiguous and alternates between segregated and integrated. This work studied whether an ambiguous sound organization could be modulated towards a robust integrated or a segregated percept by the synchronous presentation of visual cues.

Methods

Two interleaved sets of sounds, one high frequency and one low frequency set were presented with concurrent visual stimuli, synchronized to either a within-set frequency pattern or to the across-set intensity pattern. Elicitation of the mismatch negativity (MMN) component of event-related brain potentials served as indices for the segregated organization, when no task was performed with the sounds. As a result, MMN was elicited only when the visual pattern promoted the segregation of the sounds.

Results

By spatial analysis of the distribution of electromagnetic potentials, four separated neuronal sources underlying the obtained MMN response were identified. One pair was located bilaterally in temporal cortical structures and another pair in occipital areas, representing the auditory and visual origin of the MMN response, evoked by inverted triplets as used in this study. Thus, the results demonstrate cross-modal effects of visual information on auditory object perception.

Keywords

Auditory scene analysis Mismatch negativity Visual perception Audiovisual integration Auditory perception

Copyright information

© Springer-Verlag Berlin Heidelberg 2012