Information

Welche Frequenzauflösung hat das menschliche Ohr?

Welche Frequenzauflösung hat das menschliche Ohr?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ich dachte an Audiokomprimierung (nämlich mp3), die den Ton "filtert", den wir wahrscheinlich nicht hören würden.

Der Algorithmus zur verlustbehafteten MP3-Audiodatenkomprimierung nutzt eine Wahrnehmungsbeschränkung des menschlichen Gehörs, die als auditive Maskierung bezeichnet wird. von: http://en.wikipedia.org/wiki/MP3

Ich habe auch den Wiki-Eintrag auf auditive Maskierung überprüft und Folgendes gefunden:

Wenn zwei Klänge mit zwei unterschiedlichen Frequenzen gleichzeitig gespielt werden, sind oft eher zwei separate Klänge als ein Kombinationston zu hören. Die Fähigkeit, Frequenzen getrennt zu hören, wird als Frequenzauflösung oder Frequenzselektivität bezeichnet. Wenn Signale als Kombinationston wahrgenommen werden, liegen sie in derselben kritischen Bandbreite.

Meine Frage ist, wie groß diese kritische Bandbreite ist oder was der kleinste Frequenzunterschied ist, den wir als zwei verschiedene Töne wahrnehmen können, wenn Sie möchten. Nehmen wir an, beide Töne sind gleich laut, kommen aus der gleichen Richtung und Entfernung und wir befinden uns in einem ruhigen Raum - also grundsätzlich eliminieren wir so viel Lärm und störende Phänomene wie möglich.

Wie @ sanchises (nochmals vielen Dank!) im Kommentarbereich darauf hingewiesen hat, beträgt die Frequenzauflösung 3,6 Hz zwischen 1 und 2 kHz. Aber da die Wahrnehmungsschwelle eine Funktion der Tonhöhe ist, würde ich annehmen, dass sich die Fähigkeit, zwei Töne aufzulösen, auch mit der Tonhöhe ändern würde. Hat jemand Daten dazu? Zum Beispiel Auflösungs-X-Pitch-Diagramm.


Die Frequenz Limen, oder Frequenzauflösung kann auf verschiedene Weise bestimmt werden mit psychophysische Maßnahmen. Sie sprechen von einer simultanen Methode, bei der zwei (oder mehr) Frequenzen gleichzeitig präsentiert werden. Dies hat Konsequenzen für den Test, da bei konstanten Schalldruckpegeln unterschiedliche Frequenzen mit unterschiedlicher wahrgenommener Lautstärke wahrgenommen werden, so dass neben Tonhöhenhinweisen noch weitere Hinweise vorhanden sind.

Eine diesbezüglich sorgfältig kontrollierte Studie von Zwicker et al. (1957) definierte die kritische Band im Grunde als "Frequenzen, bei denen keine Intensitätssummierung auftritt", was bedeutet, dass das Hinzufügen dieser Frequenzen (unter oder über der Mittenfrequenz) nicht zu Unterschieden in der Lautstärkewahrnehmung führt (ausgedrückt in akustische Schwelle der Mittenfrequenz). Diese Methode verhindert auf angenehme Weise Lautheits-Summierungshinweise, indem sie im Kriterium eingesetzt werden. Dieser Artikel zeigt folgendes Bild (nach Zwicker et al. (1957)):

Die kritische Band (obere Grafik) ist frequenzabhängig und reicht von 0,1 kHz bis >2 kHz.

Die in den Kommentaren erwähnte deutlich niedrigere Differenz von 3,6 Hz könnte mit einem alternativen psychophysischen Test ermittelt worden sein, bei dem die Testfrequenz . ist moduliert durch eine andere Frequenz (untere Grafik). Dieses Verfahren basiert auf dem Hinzufügen einer Frequenz zu einem bestimmten sinusförmigen Stimulus, was im Grunde zu einem einzigen Stimulus anstelle von zwei (oder mehr) führt. Dieses Verfahren ist technisch nicht als kritisches Band definiert und führt tatsächlich zu einer Differenz von ~3,5 Hz und mehr. Der andere in der Abbildung dargestellte Graph ist a Maskierungsverfahren (mittleres Diagramm), das im Wesentlichen die physiologische Überlappung zwischen Frequenzen in der Cochlea im Intensitätsbereich bestimmt, indem das Ausmaß der Maskierung von einer Frequenz durch eine andere bestimmt wird.

Hinweis: Die Autoren haben mit Kopfhörern gearbeitet, also keine Richtungseffekte.

Referenz
Zwickeret al. JASA 1957; 29: 548-57


Ich denke, Sie haben Ihre Frage bereits beantwortet. Das menschliche Gehör hat eine Auflösung von 640 verschiedenen Frequenzen, so dass man durch diese Teilung des Hörfrequenzbereichs die kleinste Frequenz sehen kann. obwohl die Bandbreite nicht im gesamten Bereich konstant ist (100 für Frequenzen unter 500 Hz und 0,2f für Frequenzen über 500 Hz). Außerdem hat unser Hörsystem eine dynamische Auflösung von weniger als 1 dB. hoffe ich habe es richtig verstanden :)


Tonhöhe

Klänge können im Allgemeinen durch Tonhöhe, Lautstärke und Qualität charakterisiert werden. Die wahrgenommene Tonhöhe eines Tons ist nur die Reaktion des Ohrs auf die Frequenz, d. h. für die meisten praktischen Zwecke ist die Tonhöhe nur die Frequenz. Die Tonhöhenwahrnehmung des menschlichen Ohrs funktioniert grundsätzlich nach der Ortstheorie, wobei ein gewisser Schärfungsmechanismus notwendig ist, um die bemerkenswert hohe Auflösung der menschlichen Tonhöhenwahrnehmung zu erklären.

Die Ortstheorie und ihre Verfeinerungen liefern plausible Modelle für die Wahrnehmung der relativen Tonhöhe zweier Töne, erklären aber nicht das Phänomen der perfekten Tonhöhe.

Der gerade wahrnehmbare Tonhöhenunterschied wird praktischerweise in Cent ausgedrückt, und der Standardwert für das menschliche Ohr beträgt 5 Cent.


Was passiert, wenn die Cochlea beschädigt ist?

Die Cochlea ist der Hauptgrund dafür, dass wir hören können, und die meisten Hörverluste auf der Welt sind auf Schäden an der Cochlea (sensorisch-neural) zurückzuführen. In fast allen Fällen wird der Patient mit der Sprachunterscheidung zu kämpfen haben („Ich kann Ihre Stimme hören, aber Sie klingen, als würden Sie murmeln“) Dies wird durch Hintergrundgeräusche noch schlimmer. Die Anpassung von Hörgeräten wird von Vorteil sein, aber eine einfache Verstärkung der Geräusche wird die Probleme in der Cochlea nicht lösen. Wir werden uns nun die verschiedenen Probleme innerhalb der Cochlea ansehen.

Ich spreche hier von den verschiedenen Intensitäten und Frequenzcharakteristiken der Sprache. Die meisten Menschen mit Cochlea-Verlust haben ein besseres Hören in den tiefen Frequenzen und ein schlechtes Hören in den hohen Frequenzen.

Vokale sind niederfrequent und können gehört werden,

KONSANANTEN sind hohe Frequenzen sind weniger gut zu hören,

Konsananten sind auch leiser als Vokale, was die Schwierigkeiten erhöht. Hintergrundgeräusche sind überwiegend niederfrequent, was auch die Wahrscheinlichkeit erhöht, dass die leiseren, hochfrequenten Konsonanten vom Zuhörer nicht gehört werden. Fast alle Hörsysteme bieten eine höhere Verstärkung der hohen Frequenzen, um die Situation zu verbessern. Es gibt auch Möglichkeiten, die Niederfrequenzleistung eines Hörgeräts zu reduzieren (eine Entlüftung ist ein kleiner Kanal im Ohrstück, durch den niederfrequente Töne aus dem Ohr entweichen können).

Loudness-Rekrutierung

Menschen mit Cochlea-Schäden brauchen einen höheren Schallpegel, um gut zu hören, aber wenn die Geräusche lauter werden, werden sie lauter Geräusche genauso intolerant wie Menschen ohne Hörbehinderung. Wie in der Audiometrie zu sehen ist, hat dies beim Patienten einen reduzierten Dynamikbereich. Dies führt zu Problemen bei der Sprachunterscheidung, da der Dynamikbereich der Sprache etwa 50 dB beträgt, d. h. ein Intensitätsunterschied von 50 dB zwischen den lautesten und leisesten Sprachteilen. Jemand mit einem reduzierten Dynamikbereich kann möglicherweise nicht den gesamten Sprachumfang aufnehmen, was beim Anlegen eines Hörgeräts zu einem Problem werden kann.

Ein Hörgerät mit der Fähigkeit, die Verstärkung anzupassen, bietet eine bessere Option für Patienten mit einem reduzierten Dynamikbereich. Eine Rekrutierung wird nur bei Patienten mit einer Schädigung der Cochlea (Haarzellen) gefunden. Der Begriff „abnormales Lautstärkewachstum“ wird häufig verwendet und bezieht sich auf die Wahrnehmung der Lautstärke durch den Patienten im gesamten Dynamikbereich.

Frequenzauflösung

Dies ist die Fähigkeit des Ohrs, Geräusche ähnlicher Frequenzen zu unterscheiden. Die Frequenzselektivität ist sehr wichtig, wenn es um komplexe Geräusche wie Sprache geht. Ein normal hörendes Ohr hat die Fähigkeit, verschiedene Frequenzen mit außergewöhnlicher Genauigkeit zu unterscheiden. Wenn jedoch die Haarzellen beschädigt werden, wird diese Selektivität/Auflösung weniger effizient und wir finden es dann schwierig, das Gesagte zu verstehen. Der aktive Mechanismus in diesem Prozess ist der OHC und somit führt eine Schädigung dieser Zellen zu Diskriminierungsproblemen.

Eine Beschädigung von IHC verringert den Schall, der zum Gehirn gelangt, und daher sind erhöhte Schallpegel erforderlich, um den Schaden zu überwinden. Eine vollständige Schädigung von IHC würde jedoch zu toten Regionen führen, d. h. einer Region von Haarzellen auf der Basilarmembran, die nicht mehr funktioniert. Dies ist anhand der Audiometrie schwer zu erkennen, da in der Nähe arbeitende Haarzellen auf Geräusche anderer Frequenzen reagieren. Bisher gibt es kein einfaches klinisches Verfahren zur Bestimmung der Ausdehnung toter Regionen.

Zeitliche Auflösung

Dies ist die Fähigkeit des Ohrs, Veränderungen im Laufe der Zeit zu erkennen. Dies beinhaltet das Erkennen einer kurzen Tonunterbrechung, eines kurzen Tons oder einer kurzen Tonänderung. Dies ist für die Sprachunterscheidung zwingend erforderlich, es verhindert, dass eine Stimme ein langer Lärm wird! Wir verwenden dies auch, um zwischen Sprache und Hintergrundgeräuschen zu unterscheiden. Bleibt die Intensität und Frequenz eines Schalls konstant, spricht man von einem stetigen Schall, z.B. eine musikalische Note. Rauschen ist auch als stetiger Ton zu hören, obwohl seine Wellenform nicht regelmäßig ist, sondern schnell schwankt. Sprache besteht jedoch aus hörbaren Lücken und das Gehirn verwendet diese Informationen, um Sprache auch bei Hintergrundgeräuschen zu hören.

Ein geschädigter Hörnerv verliert sein zeitliches Auflösungsvermögen und so nehmen Menschen Stimmen als undeutlich wahr oder kämpfen mit Gesprächen im Hintergrundgeräusch. Die zeitliche Auflösung ist kein reines Coch.le-Phänomen. Die Nervenbahn und das Gehirn sind an diesem Prozess beteiligt. Neuronale oder zentrale (Gehirn-)Störungen können ebenfalls zu Sprachdiskriminierungsproblemen führen, sind jedoch eher mit einem zeitlichen Auflösungsverlust verbunden.

Diplakusis

*Patienten mit einseitigem oder asymmetrischem Hörverlust können einen einzelnen Ton in jedem Ohr unterschiedlich wahrnehmen. (Diplacusis binauralis)

*Manchmal bei symmetrischen Hörverlusten gefunden.

*Kann auf einem Ohr gefunden werden und kann als Rauheit/Unreinheit eines bestimmten Tons wahrgenommen werden oder der Ton hat einen zusätzlichen Unterton. (Diplacusic monauralis)

*Verursacht Sprachdiskriminierung, die durch das Anpassen eines Hörgeräts nicht leicht behoben werden kann.

Paracucis

Obwohl es sich nicht um eine Cochlea-Erkrankung handelt, handelt es sich bei der Parakussis um ein konduktives Phänomen, bei dem ein Patient in der Lage ist, bei Hintergrundgeräuschen gut zu hören. Patienten mit Schallleitungsverlust haben eine gute Cochlea-Funktion, aber eine reduzierte Hörschwelle. Bei den meisten Sprechstimmen hören sie diese in normalen Hörsituationen leiser. In lauten Situationen jedoch wird der Sprecher selbst seine Stimme über dem Hintergrundgeräusch erheben.

Hyperakusis

*Eine Unverträglichkeit gegenüber normalen Umgebungsgeräuschen.

*Beschwerden durch Geräusche, die zuvor nicht angenehm waren oder die andere Menschen nicht als angenehm empfinden.

*Überempfindlichkeit gegenüber jedem Geräusch.

* im Gegensatz zur Rekrutierung hat der Patient kein abnormales Lautstärkewachstum (auch wenn sein Dynamikbereich reduziert ist, es sei denn, es liegt an einer Schädigung der Haarzellen)


Frequenzbewertungen - A-gewichtet, C-gewichtet oder Z-gewichtet?

Das menschliche Ohr reagiert stärker auf Frequenzen zwischen 500 Hz und 8 kHz und ist weniger empfindlich gegenüber sehr tiefen oder hohen Geräuschen. Die in Schallpegelmessern verwendeten Frequenzbewertungen beziehen sich oft auf die Reaktion des menschlichen Ohrs, um sicherzustellen, dass das Messgerät ziemlich genau das misst, was Sie tatsächlich hören.

Es ist äußerst wichtig, dass Schallpegelmessungen mit der richtigen Frequenzbewertung durchgeführt werden - normalerweise A-Bewertung. Beispielsweise kann die Messung eines tonalen Rauschens von etwa 31 Hz zu einem Fehler von 40 dB führen, wenn die C-Bewertung anstelle der A-Bewertung verwendet wird.

Eine Gewichtung

Die gebräuchlichste Gewichtung, die bei der Geräuschmessung verwendet wird, ist die A-Bewertung. Wie das menschliche Ohr schneidet dies effektiv die niedrigeren und höheren Frequenzen ab, die der durchschnittliche Mensch nicht hören kann.

In den Schallpegelmessernormen (IEC 60651, IEC 60804, IEC 61672, ANSI S1.4) definiert, ist rechts ein Diagramm des Frequenzgangs zu sehen.

A-gewichtete Messungen werden ausgedrückt als dBA oder dB(A).

C-Gewichtung

Die Reaktion des menschlichen Ohrs variiert mit dem Schallpegel. Bei höheren Pegeln, 100 dB und mehr, ist die Reaktion des Ohrs flacher, wie in der C-gewichteten Reaktion rechts dargestellt.

Obwohl die A-bewertete Antwort für die meisten Anwendungen verwendet wird, ist die C-Bewertung auch bei vielen Schallpegelmessern verfügbar. Die C-Bewertung wird normalerweise für Peak-Messungen und auch bei einigen Unterhaltungsgeräuschmessungen verwendet, bei denen die Übertragung von Bassgeräuschen ein Problem darstellen kann.

C-gewichtete Messungen werden ausgedrückt als dBC oder dB(C).

Z-Gewichtung

Die Z-Bewertung ist ein flacher Frequenzgang von 10 Hz bis 20 kHz + 1,5 dB. Diese Antwort ersetzt die älteren Antworten "Linear" oder "Ungewichtet", da diese nicht den Frequenzbereich definiert haben, über den das Messgerät linear wäre.

Z-gewichtete Messungen werden ausgedrückt als dBZ oder dB(Z).


Wie genau ist das menschliche Ohr für die Tonhöhe?

Kann das menschliche Ohr beispielsweise zwischen 440 Hz und 440,01 Hz unterscheiden?

Ich habe vor einiger Zeit diese Website zum individuellen Gehörtraining gefunden. Dieser Test gibt Ihnen zwei Töne (einen Grundton gefolgt von einem, der sich ändert) und Sie müssen feststellen, ob der zweite Ton höher oder niedriger ist als der erste. Am Anfang ist es einfach, aber die Intervalle zwischen den Tonhöhen werden immer kleiner, bis sie fast wie die gleiche Note klingen. Es lohnt sich auf jeden Fall, es auszuprobieren! (Ich empfehle Kopfhörer) http://tonometric.com/adaptivepitch/

Als ich in einer Jazzband der Mittelschule war, bestand die Gehörbildungsübung des Regisseurs darin, zwei zufällige Töne der chromatischen Tonleiter auf einem Klavier zu spielen und uns dann die Intervalle zwischen ihnen aufschreiben zu lassen. Sie können dies erreichen, indem Sie sich entweder an die Dissonanz und Konsonanz jedes Intervalls gewöhnen und es "ausfühlen" oder indem Sie ein berühmtes Lied kennen, das mit diesem Intervall beginnt, wie "Jaws" (Minor 2nd) oder "The Eyes of Texas are Upon You" (Major 5th). ).

Ich bin auf 1,5 Hz heruntergekommen, aber selbst bei 3 Hz klingen sie fast identisch.

Die Frequenzauflösung des Ohrs beträgt 3,6 Hz innerhalb der Oktave von 1000 – 2000 Hz. Das heißt, Tonhöhenänderungen von mehr als 3,6 Hz können in einer klinischen Umgebung wahrgenommen werden.[5] Aber auch kleinere Tonhöhenunterschiede können auf andere Weise wahrgenommen werden. So ist beispielsweise die Interferenz zweier Tonhöhen oft als (nieder-)frequente Differenztonhöhe zu hören.

Als Referenz, auf einer A440-Skala mit gleichem Temperament beträgt die Frequenz für hohes C (auch bekannt als Sopran-C) 1046,50 Hz und C# ist 1108,73 Hz (62,23 Hz Unterschied). 3,6 Hz sind 1/17 dieser Differenz.


Die Realität

Klassenzimmerübungen zur Ohrläppchen-Genetik sagen, dass es zwei verschiedene Kategorien gibt, frei (F) und angehängt (A). Viele Veröffentlichungen zur Ohrläppchengenetik haben jedoch darauf hingewiesen, dass es viele Menschen mit Zwischenohrläppchen gibt (Quelprud 1934, Wiener 1937, Dutta und Ganguly 1965). El Kollali (2009) teilte die Ohrläppchen in drei Typen ein, je nachdem, ob der Ansatzwinkel spitz, rechts oder stumpf war. Um das obige Bild zu machen, suchte ich nach Bildern von professionellen Radfahrern (weil sie kurze Haare haben), fand 12 mit ihren Ohren und ordnete sie von frei nach angehängt. Es sieht für mich nicht so aus, als gäbe es nur zwei Kategorien, sondern die Höhe des Befestigungspunkts (der "otobasion inferius") relativ zum tiefsten Punkt des Ohrläppchens (der "Subaurale") variiert kontinuierlich. Meine eigenen Ohrläppchen liegen genau auf halbem Weg zwischen den beiden Extremen. Ich kann dir nicht sagen, ob meine Ohrläppchen als frei oder befestigt gelten sollen.


Aufbau einer neuartigen Plattform für regenerative Medizin

Wir sind Pioniere der Progenitor Cell Activation (PCA). Ähnlich wie Stammzellen sind Vorläuferzellen vorprogrammiert, um bestimmte Zelltypen zu erzeugen. Im Innenohr erzeugen sie beispielsweise die sensorischen Haarzellen, die uns das Hören ermöglichen.

Wir glauben, dass dieser Ansatz auf eine Reihe von Geweben und Organen angewendet werden kann, die von degenerativen Erkrankungen betroffen sind. Wir schaffen eine neue Klasse von Therapeutika, die darauf abzielen, diese Vorläuferzellen mit kleinen Molekülen zu aktivieren, die Gene nicht verändern und die mit weniger Komplexität als aktuelle regenerative Medikamente verabreicht werden können.


Schärfen der Tonhöhenwahrnehmung

Die hohe Tonhöhenauflösung des Ohrs legt nahe, dass jeder unterscheidbaren Tonhöhe nur etwa ein Dutzend Haarzellen oder etwa drei Schichten der vier Zellbänke zugeordnet sind. Eine so scharfe mechanische Resonanz der Basilarmembran ist kaum vorstellbar. Wir suchen also nach Erweiterungen der grundlegenden Ortstheorie der Tonhöhenwahrnehmung.

Es muss einen Mechanismus geben, der die Reaktionskurve des Corti-Organs schärft, wie im Diagramm schematisch angedeutet. Mehrere solcher Mechanismen wurden vorgeschlagen.
Index


Das menschliche Gehör schlägt die Fourier-Unschärferelation

Jeder Punkt repräsentiert die Leistung eines Probanden bei Aufgabe 5 (gleichzeitiges Messen der Dauer und Frequenz eines Tons), mit zeitlicher Schärfe auf der x-Achse und Frequenzschärfe auf der y-Achse. Alle Punkte innerhalb des schwarzen Rechtecks ​​schlagen das Fourier-Unschärfenprinzip. Bildnachweis: Oppenheim und Magnasco ©2013 American Physical Society

(Phys.org)—Zum ersten Mal haben Physiker herausgefunden, dass Menschen die Frequenz eines Tons (bezogen auf die Tonhöhe einer Note) und das Timing (ob eine Note vor oder nach einer anderen Note kommt) mehr als zehnmal besser unterscheiden können als die vorgeschriebene Grenze. nach der Fourier-Unschärferelation. Es überrascht nicht, dass einige der Probanden mit der besten Hörpräzision Musiker waren, aber auch Nicht-Musiker konnten die Unsicherheitsgrenze überschreiten. Die Ergebnisse schließen die Mehrheit der vorgeschlagenen auditiven Verarbeitungsalgorithmen des Gehirns aus, da nur wenige Modelle mit dieser beeindruckenden menschlichen Leistung mithalten können.

Die Forscher Jacob Oppenheim und Marcelo Magnasco von der Rockefeller University in New York haben ihre Studie zum ersten direkten Test der Fourier-Unschärferelation beim menschlichen Hören in einer aktuellen Ausgabe von Physische Überprüfungsschreiben.

Das Fourier-Unsicherheitsprinzip besagt, dass für Schallsignale ein Zeit-Frequenz-Kompromiss besteht, so dass je kürzer die Dauer eines Schalls ist, desto größer die Streuung verschiedener Frequenztypen ist, um den Schall darzustellen. Umgekehrt müssen Töne mit engen Frequenzclustern eine längere Dauer haben. Das Unsicherheitsprinzip begrenzt die Genauigkeit der gleichzeitigen Messung von Dauer und Frequenz eines Schalls.

Um das menschliche Gehör in diesem Zusammenhang zu untersuchen, wandten sich die Forscher der Psychophysik zu, einem Forschungsgebiet, das mit verschiedenen Techniken aufdeckt, wie physikalische Reize die menschliche Empfindung beeinflussen. Mit Hilfe der Physik können diese Techniken der Leistungsfähigkeit der Sinne enge Grenzen setzen.

Um zu testen, wie genau Menschen gleichzeitig die Dauer und Frequenz eines Geräusches messen können, baten die Forscher 12 Probanden, eine Reihe von Höraufgaben durchzuführen, die zu einer abschließenden Aufgabe führten. In der abschließenden Aufgabe wurden die Probanden gebeten, gleichzeitig zu unterscheiden, ob eine Testnote höher oder niedriger in der Frequenz war als eine davor gespielte Leitnote und ob die Testnote vor oder nach einer dritten Note erschien, die aufgrund von seine viel höhere Frequenz.

Wenn eine Versuchsperson die Frequenz und das Timing einer Note zweimal hintereinander korrekt diskriminierte, würde der Schwierigkeitsgrad steigen, so dass sowohl der Frequenzunterschied zwischen den Noten als auch die Zeit zwischen den Noten abnahm. Wenn ein Proband falsch reagierte, würde die Varianz zunehmen, um die Aufgabe zu erleichtern.

(a) In Aufgabe 5 werden die Probanden aufgefordert, gleichzeitig zu unterscheiden, ob der Testton (rot) in der Frequenz höher oder niedriger als der führende Ton (grün) ist und ob der Testton vor oder nach dem hohen Ton (blau) auftritt. (b) Die Aufgaben 1 bis 4 führen zu Aufgabe 5: Aufgabe 1 ist nur die Frequenz, Aufgabe 2 ist nur das Timing, Aufgabe 3 ist nur die Frequenz, aber mit der hohen Note (blau) als Ablenker, und Aufgabe 4 ist nur das Timing, aber mit der führenden (grünen) Note als Ablenker. Bildnachweis: Oppenheim und Magnasco ©2013 American Physical Society

Die Forscher testeten die Probanden mit zwei verschiedenen Arten von Klängen: Gaussian, gekennzeichnet durch einen Anstieg und Abfall, der einer Glockenkurvenform folgt und tonartig, gekennzeichnet durch einen schnellen Anstieg und einen langsamen exponentiellen Abfall. Laut dem Unschärferelationsprinzip sind notenartige Klänge schwieriger mit hoher Genauigkeit zu messen als Gaußsche Klänge.

Aber wie sich herausstellte, konnten die Probanden beide Arten von Geräuschen mit gleichermaßen beeindruckender Leistung unterscheiden. Während einige Probanden bei der Unterscheidung von Frequenzen übertrafen, schnitten die meisten viel besser bei der Unterscheidung des Timings ab. Die von einem professionellen Musiker erzielte Bestnote verletzte das Unsicherheitsprinzip um den Faktor 13 aufgrund der gleich hohen Präzision in der Frequenz- und Timingschärfe. Die Partitur mit der höchsten Timingschärfe (3 Millisekunden) wurde von einem elektronischen Musiker erzielt, der in der präzisen Tonbearbeitung arbeitet.

Die Forscher glauben, dass dieses überlegene menschliche Hörvermögen teilweise auf die spiralförmige Struktur und Nichtlinearitäten in der Cochlea zurückzuführen ist. Zuvor haben Wissenschaftler bewiesen, dass lineare Systeme die Zeit-Frequenz-Unsicherheitsgrenze nicht überschreiten können. Obwohl die meisten nichtlinearen Systeme keine bessere Leistung erbringen, muss jedes System, das die Unsicherheitsgrenze überschreitet, nichtlinear sein. Aus diesem Grund sind die Nichtlinearitäten in der Cochlea wahrscheinlich integraler Bestandteil der Präzision der menschlichen Hörverarbeitung. Da die Nichtlinearitäten der Cochlea den Forschern seit langem bekannt sind, sind die aktuellen Ergebnisse nicht ganz so überraschend wie sonst.

"Es ist und es ist nicht [überraschend]", sagte Magnasco Phys.org. "Wir waren überrascht, aber wir erwarteten, dass dies passieren würde. Die Sache ist die, dass die Möglichkeit mathematisch die ganze Zeit bestand. Es gibt einen Satz, der besagt, dass Unsicherheit nur von linearen Operatoren (wie den linearen Operatoren der Quantenmechanik) gehorcht wird. Jetzt gibt es fünf Jahrzehnte von eine sorgfältige Dokumentation darüber, wie unangenehm die Nichtlinearität der Cochlea ist, aber es ist nicht ersichtlich, wie eine der Nichtlinearitäten der Cochlea zur Verbesserung der Zeit-Frequenz-Schärfe beiträgt.Wir wissen jetzt, dass unsere Ergebnisse implizieren, dass einige dieser Nichtlinearitäten den Zweck haben, die Sehschärfe über die naive lineare Grenzen.

„Wir waren immer noch extrem überrascht, wie gut unsere Probanden abgeschnitten haben, und besonders überrascht von der Tatsache, dass die größten Gewinne im Großen und Ganzen im Timing zu liegen scheinen. Physiker neigen dazu, zu denken, dass Hören ein Spektrum ist. Aber Spektrum ist Zeit -unabhängig, und beim Hören geht es um schnelle Transienten. Die Daten haben uns gerade gesagt, dass unser Gehirn sich sehr um das Timing kümmert."

Die Ergebnisse haben Auswirkungen auf unser Verständnis der Art und Weise, wie das Gehirn Geräusche verarbeitet, eine Frage, die Wissenschaftler seit langem beschäftigt. In den frühen 1970er Jahren fanden Wissenschaftler Hinweise darauf, dass das menschliche Gehör das Unsicherheitsprinzip verletzen könnte, aber das wissenschaftliche Verständnis und die technischen Fähigkeiten waren nicht weit genug, um eine gründliche Untersuchung zu ermöglichen. Infolgedessen basieren die meisten heutigen Schallanalysemodelle auf alten Theorien, die jetzt überarbeitet werden können, um die Präzision des menschlichen Gehörs zu erfassen.

„In Seminaren demonstriere ich gerne, wie viele Informationen in Klang vermittelt werden, indem ich den Sound aus der Szene in Casablanca spiele, in der Ilsa bittet: „Spiel es einmal, Sam“, Sam täuscht Unwissenheit vor, Ilsa besteht darauf“, sagte Magnasco. "Sie können den gesprochenen Text erkennen, aber Sie können auch die Lautstärke der Äußerung, die emotionale Haltung beider Sprecher, die Identität der Sprecher einschließlich des Akzents des Sprechers erkennen (Ingrids schwaches Schwedisch, obwohl ihr Charakter Norwegisch ist, was ich bin erzählt, dass Norweger Sams AAVE (African American Vernacular English) unterscheiden können), die Entfernung zum Sprecher (Ilsa flüstert, aber sie ist näher, Sam täuscht laut Unwissenheit vor, aber er ist hinten), die Position des Sprechers (in deinem Haus weißt du, wenn jemand Rufen Sie aus einem anderen Raum an, in welchem ​​Raum sie sich befinden!), die Ausrichtung des Sprechers (von Ihnen oder von Ihnen wegschauend), einen Eindruck des Raumes (groß, klein, mit Teppichboden).

„Das Problem ist, dass viele Bereiche der Klanganalyse, sowohl grundlegende als auch kommerzielle, versuchen, nur eines davon zu rekonstruieren, und dafür können sie grobe Modelle des frühen Hörens verwenden, die genügend Informationen für ihre Zwecke übermitteln. Aber das Problem ist, dass, wenn Sie Die Analyse ist eine Pipeline, alle Informationen, die auf einer bestimmten Bühne verloren gehen, können später nie wiederhergestellt werden. Wenn Sie also versuchen, eine sehr ausgefallene Analyse von, sagen wir, Stimmlagen eines lyrischen Soprans durchzuführen, können Sie dies mit gröberen Modellen einfach nicht tun."

Indem viele der einfacheren Modelle der auditiven Verarbeitung ausgeschlossen werden, können die neuen Ergebnisse den Forschern helfen, den wahren Mechanismus zu identifizieren, der der menschlichen auditiven Hypersehschärfe zugrunde liegt. Das Verständnis dieses Mechanismus könnte weitreichende Anwendungen in Bereichen wie der Spracherkennungs-Soundanalyse und -verarbeitung sowie in der Radar-, Sonar- und Radioastronomie haben.

"Sie könnten raffiniertere Methoden in Radar oder Sonar verwenden, um zu versuchen, Details jenseits von Unsicherheit zu analysieren, da Sie die Ping-Wellenform tatsächlich kontrollieren, wie es Fledermäuse tun", sagte Magnasco.

Aufbauend auf den aktuellen Ergebnissen untersuchen die Forscher nun, wie das menschliche Gehör feiner auf natürliche Klänge abgestimmt wird und untersuchen auch den zeitlichen Faktor beim Hören.

"Solche Leistungssteigerungen können ohne einige Annahmen im Allgemeinen nicht eintreten", sagte Magnasco. „Wenn Sie beispielsweise Genauigkeit vs. Auflösung testen, müssen Sie davon ausgehen, dass alle Signale gut getrennt sind. Wir haben Hinweise darauf, dass das Hörsystem im Gegensatz zu abstrakten Zeitreihen stark auf die Geräusche abgestimmt ist, die Sie tatsächlich in der Natur hören dies fällt unter die Rubrik "ökologische Wahrnehmungstheorien", in denen Sie versuchen, den Raum von analysierten Naturobjekten in einem ökologisch relevanten Umfeld zu verstehen, und ist beim Sehen sehr erfolgreich. Viele Geräusche in der Natur werden durch eine abrupte Übertragung von Energie, gefolgt von einem langsamen, gedämpften Abklingen, und haben daher die Zeitumkehrsymmetrie gebrochen. Wir haben gerade getestet, dass die Versuchspersonen Timing und Frequenz in der Vorwärtsversion viel besser unterscheiden als in der Zeitumkehrversion (Manuskript eingereicht). Daher das Nervensystem verwendet spezifische Informationen über die Physik der Klangerzeugung, um Informationen aus dem Sinnesstrom zu extrahieren.

„Wir untersuchen mit denselben Methoden auch den Begriff der Gleichzeitigkeit von Klängen. Wenn wir ein Flöte-Klavierstück hören, werden wir eine deutliche Wahrnehmung haben, wenn die Flöte in einer Phrase ‚verspätet‘ ankommt und sogar dem Klavier hinterherhinkt.“ obwohl Flöte und Klavier ausgedehnte Klänge erzeugen, die viel länger sind als die Genauigkeit, mit der wir ihre Ausrichtung wahrnehmen.Im Allgemeinen haben wir für viele Klänge eine klare Vorstellung von einer einzigen 'Zeit', die mit dem Klang verbunden ist, viele Male in unserem Geist, zu tun, was wir tun würden, um den Ton selbst zu erzeugen (Schlag, Schlag usw.)."


Brillanz: 6 kHz bis 20 kHz

Abbildung 7 - Brillanz-Frequenzbereich 6 kHz bis 20 kHz

Die Brillanz Bereich besteht ausschließlich aus Obertönen und ist für das Funkeln und die Luft eines Klangs verantwortlich. Boost um 12 kHz lässt eine Aufnahme Hi-Fi klingen.

Seien Sie beim Boosten in dieser Region vorsichtig, da es das Zischen verstärken und zu Ermüdung der Ohren führen kann.


Schau das Video: Hvad skal jeg med høreapparat? Kenneth Kinastowskis videoblog 2 (Kann 2022).