Как мы можем локализовать звук по вертикали (сверху вниз) и спереди назад?

Понятие латеральной локализации звука понять довольно просто . Это зависит от разницы громкости и времени (и фазы волны) между двумя ушами.

Но как мы можем обнаружить локализацию спереди-сзади ( если кто-то зовет меня спереди/сзади ) и локализацию вверх-вниз ( например, звук самолета исходит сверху , а гудок автомобиля доносится снизу? балкон я стою ). Как это происходит? Или в этих условиях локализация вообще не происходит? Это просто иллюзия только потому, что мы уже знаем о возможном источнике (например, поскольку это звук самолета, он может исходить сверху, или я вижу, что мой друг говорит, стоя передо мной, поэтому звук должен исходить спереди? ... так далее.)

Я искал в Википедии и на других сайтах, но не нашел ничего, что объясняло бы этот вопрос в достаточной мере.

Ответы (3)

  • Локализация по азимуту (горизонтальная левая-правая ось) опосредована различными процессами: 1) Во-первых, это эффект тени головы , означающий, что звуки слева достигают правого уха (АД) в ослабленном состоянии относительно левого ухо (АС) из-за наличия костной и других тканей. Эту разницу улавливает высшая олива (SO). Это в основном помогает в локализации высокочастотных звуков , поскольку низкие частоты просто имеют тенденцию обходить голову, а не пересекать ее. Как упоминалось другими, между двумя ушами существует временная задержка, называемая 2) межушной временной задержкой .(ИТД). Учитывая скорость звука, это приводит к задержкам в микросекундном диапазоне, тем не менее, SO все еще может обнаруживать такие незначительные различия, чтобы помочь в локализации звука. Также регистрируется 3) разность фаз между звуковыми волнами, достигающими AD и AS, когда звук исходит слева или справа. Этот сигнал важен для низких частот (Mather, 2006) .

  • Локализация в вертикальной плоскости ( возвышенности ) менее изучена. Насколько мне известно, именно форма наружного уха (ушной раковины) преобразует частотную характеристику входящего звука. С точки зрения направленного слуха считается, что звуки, исходящие сверху, приводят к другой функции передачи головы, чем звуки снизу. Это означает, что локализация может быть достигнута только в том случае, если звук имеет определенные знакомые характеристики, которые немного искажаются в частотной области при обнаружении под разными углами возвышения (Hofman & Van Opstal, 2003) .

  • Считается, что локализация спереди-сзади опосредована процессами, аналогичными сигналам высоты. Спектральные модификации работают как фильтры и возникают из-за отражения звука, вызванного формой и размером головы, шеи, плеч, туловища и особенно ушными раковинами (Zhang & Hartmann, 2010) .

Ссылки
- Хофман и Ван Опстал, Exp Brain Res (2003); 148 : 458–70
Мазер, Основы восприятия , Psychology Press (2006)
Чжан и Хартманн, Hear Res ; 260 (1-2): 30

Статья в Википедии неплохая.

Короче говоря, как вы утверждаете, фазу волны можно использовать только для локализации звуков в плоскости ушей. Чтобы приблизительно определить положение в срединной плоскости (сверху-снизу/спереди-сзади), мы используем асимметрии, которые по-разному искажают звук на разных частотах.

Кажется, что у людей эти асимметрии и их обработка не запрограммированы генетически, а эволюционировали в каждом слушателе.

У сов это отличается, хотя у разных видов есть определенная асимметрия. https://en.wikipedia.org/wiki/Sound_localization_in_owls

Геометрия головы + наружное и внутреннее ухо составляют спектральный фильтр, зависящий от угла. Для богатого звука, тембр которого известен, мы можем охарактеризовать спектральную фильтрацию, а значит, и местоположение (вероятно, также и для движущегося звука). Наоборот, было показано, что чистые звуки создают иллюзию локализации (например, изменение частоты изменяет воспринимаемый угол). Кроме того, у нас есть некоторые априорные ожидания, например, звук высокого тона выше.

спасибо за ответ. Я возьму время, чтобы понять процесс.