Combien de décibels l'oreille humaine peut-elle supporter. Perception du son par l'oreille humaine

Après avoir examiné la théorie de la propagation et les mécanismes d'apparition des ondes sonores, il convient de comprendre comment le son est "interprété" ou perçu par une personne. Un organe jumelé, l'oreille, est responsable de la perception des ondes sonores dans le corps humain. oreille humaine- un organe très complexe qui est responsable de deux fonctions : 1) perçoit les impulsions sonores 2) agit comme l'appareil vestibulaire de tout le corps humain, détermine la position du corps dans l'espace et donne la capacité vitale de maintenir l'équilibre. L'oreille humaine moyenne est capable de capter des fluctuations de 20 à 20 000 Hz, mais il y a des déviations vers le haut ou vers le bas. Idéalement, la gamme de fréquences audibles est de 16 à 20 000 Hz, ce qui correspond également à une longueur d'onde de 16 m à 20 cm. L'oreille est divisée en trois parties : l'oreille externe, moyenne et interne. Chacun de ces "départements" remplit sa propre fonction, cependant, les trois départements sont étroitement liés les uns aux autres et effectuent en fait la transmission d'une onde de vibrations sonores les uns aux autres.

oreille externe (externe)

L'oreille externe est constituée du pavillon et du méat auditif externe. L'oreillette est un cartilage élastique de forme complexe, recouvert de peau. Au bas de l'oreillette se trouve le lobe, constitué de tissu adipeux et également recouvert de peau. L'oreillette agit comme un récepteur des ondes sonores de l'espace environnant. La forme spéciale de la structure de l'oreillette vous permet de mieux capturer les sons, en particulier les sons de la gamme des fréquences moyennes, responsables de la transmission des informations vocales. Ce fait est en grande partie dû à la nécessité évolutive, puisqu'une personne passe la majeure partie de sa vie en communication orale avec des représentants de son espèce. L'oreillette humaine est pratiquement immobile, contrairement à un grand nombre de représentants de l'espèce animale, qui utilisent les mouvements des oreilles pour s'accorder plus précisément à la source sonore.

Les plis de l'oreillette humaine sont disposés de telle manière qu'ils apportent des corrections (distorsions mineures) par rapport à l'emplacement vertical et horizontal de la source sonore dans l'espace. C'est grâce à cette caractéristique unique qu'une personne est capable de déterminer assez clairement l'emplacement d'un objet dans l'espace par rapport à lui-même, en se concentrant uniquement sur le son. Cette fonctionnalité est également bien connue sous le terme de "localisation sonore". La fonction principale de l'oreillette est de capter autant de sons que possible dans la gamme de fréquences audibles. Le sort ultérieur des ondes sonores "captées" est décidé dans le conduit auditif, dont la longueur est de 25 à 30 mm. Dans celui-ci, la partie cartilagineuse de l'oreillette externe passe dans l'os et la surface cutanée du conduit auditif est dotée de glandes sébacées et sulfuriques. À l'extrémité du conduit auditif se trouve une membrane tympanique élastique, à laquelle les vibrations des ondes sonores atteignent, provoquant ainsi ses vibrations de réponse. La membrane tympanique, à son tour, transmet ces vibrations reçues à la région de l'oreille moyenne.

Oreille moyenne

Les vibrations transmises par la membrane tympanique pénètrent dans une zone de l'oreille moyenne appelée "région tympanique". Il s'agit d'une zone d'environ un centimètre cube de volume, dans laquelle se trouvent trois osselets auditifs : marteau, enclume et étrier. Ce sont ces éléments "intermédiaires" qui remplissent la fonction la plus importante : la transmission des ondes sonores à l'oreille interne et l'amplification simultanée. Les osselets auditifs sont une chaîne extrêmement complexe de transmission du son. Les trois os sont étroitement liés les uns aux autres, ainsi qu'au tympan, grâce à quoi se produit la transmission des vibrations "le long de la chaîne". A l'approche de la région de l'oreille interne, il y a une fenêtre du vestibule, qui est bloquée par la base de l'étrier. Pour égaliser la pression des deux côtés de la membrane tympanique (par exemple, en cas de changements de pression externe), la zone de l'oreille moyenne est reliée au nasopharynx via la trompe d'Eustache. Nous sommes tous bien conscients de l'effet de bouchon d'oreille qui se produit précisément à cause d'un tel réglage fin. De l'oreille moyenne, les vibrations sonores, déjà amplifiées, tombent dans la région de l'oreille interne, la plus complexe et la plus sensible.

oreille interne

La forme la plus complexe est l'oreille interne, appelée labyrinthe pour cette raison. Le labyrinthe osseux comprend : vestibule, cochlée et canaux semi-circulaires, ainsi que l'appareil vestibulaire responsable de l'équilibre. C'est la cochlée qui est directement liée à l'audition dans ce faisceau. La cochlée est un canal membraneux en spirale rempli de liquide lymphatique. A l'intérieur, le canal est divisé en deux parties par un autre septum membraneux appelé "membrane de base". Cette membrane est constituée de fibres de différentes longueurs (plus de 24 000 au total), tendues comme des cordes, chaque corde résonne à son propre son spécifique. Le canal est divisé par une membrane en échelles supérieure et inférieure, qui communiquent au sommet de la cochlée. De l'extrémité opposée, le canal se connecte à l'appareil récepteur de l'analyseur auditif, qui est recouvert de minuscules cellules ciliées. Cet appareil de l'analyseur auditif est aussi appelé l'Orgue de Corti. Lorsque les vibrations de l'oreille moyenne pénètrent dans la cochlée, le liquide lymphatique qui remplit le canal commence également à vibrer, transmettant des vibrations à la membrane principale. A ce moment, l'appareil de l'analyseur auditif entre en action, dont les cellules ciliées, situées sur plusieurs rangées, convertissent les vibrations sonores en impulsions électriques "nerveuses", qui sont transmises le long du nerf auditif à la zone temporale du cortex cérébral . D'une manière aussi complexe et ornée, une personne finira par entendre le son désiré.

Caractéristiques de la perception et de la formation de la parole

Le mécanisme de production de la parole s'est formé chez l'homme tout au long de l'étape évolutive. Le sens de cette capacité est de transmettre des informations verbales et non verbales. Le premier porte une charge verbale et sémantique, le second est responsable du transfert de la composante émotionnelle. Le processus de création et de perception de la parole comprend : la formulation d'un message ; encodage en éléments selon les règles du langage existant ; actions neuromusculaires transitoires; mouvements des cordes vocales; émission de signal acoustique ; Ensuite, l'auditeur entre en action, effectuant: l'analyse spectrale du signal acoustique reçu et la sélection des caractéristiques acoustiques dans le système auditif périphérique, la transmission des caractéristiques sélectionnées à travers les réseaux de neurones, la reconnaissance du code de la langue (analyse linguistique), la compréhension du sens du message.
Le dispositif de génération de signaux vocaux peut être comparé à un instrument à vent complexe, mais la polyvalence et la flexibilité de l'accord et la capacité de reproduire les moindres subtilités et détails n'ont pas d'analogues dans la nature. Le mécanisme de formation de la voix se compose de trois composants inséparables :

  1. Générateur- les poumons comme réservoir de volume d'air. L'énergie de pression en excès est stockée dans les poumons, puis à travers le canal excréteur, avec l'aide du système musculaire, cette énergie est évacuée par la trachée reliée au larynx. A ce stade, le flux d'air est interrompu et modifié ;
  2. Vibreur- se compose de cordes vocales. Le flux est également affecté par des jets d'air turbulents (créant des tons de bord) et des sources d'impulsions (explosions) ;
  3. Résonateur- comprend des cavités résonnantes de forme géométrique complexe (pharynx, cavités buccale et nasale).

Dans l'ensemble du dispositif individuel de ces éléments, un timbre unique et individuel de la voix de chaque personne individuellement est formé.

L'énergie de la colonne d'air est générée dans les poumons, ce qui crée un certain flux d'air lors de l'inspiration et de l'expiration en raison de la différence de pression atmosphérique et intrapulmonaire. Le processus d'accumulation d'énergie s'effectue par inhalation, le processus de libération est caractérisé par l'expiration. Cela se produit en raison de la compression et de l'expansion de la poitrine, qui sont réalisées à l'aide de deux groupes musculaires: intercostaux et diaphragme, avec respiration profonde et chant, les muscles abdominaux, la poitrine et le cou se contractent également. Lors de l'inspiration, le diaphragme se contracte et tombe, la contraction des muscles intercostaux externes soulève les côtes et les emmène sur les côtés, et le sternum vers l'avant. L'expansion du thorax entraîne une baisse de pression à l'intérieur des poumons (par rapport à l'atmosphère), et cet espace se remplit rapidement d'air. Lors de l'expiration, les muscles se détendent en conséquence et tout revient à son état antérieur (la poitrine revient à son état d'origine en raison de sa propre gravité, le diaphragme se soulève, le volume des poumons précédemment dilatés diminue, la pression intrapulmonaire augmente). L'inhalation peut être décrite comme un processus qui nécessite une dépense d'énergie (active) ; l'expiration est le processus d'accumulation d'énergie (passif). Le contrôle du processus de respiration et de la formation de la parole se produit inconsciemment, mais lors du chant, régler la respiration nécessite une approche consciente et une formation supplémentaire à long terme.

La quantité d'énergie qui est ensuite dépensée pour la formation de la parole et de la voix dépend du volume d'air stocké et de la quantité de pression supplémentaire dans les poumons. La pression maximale développée par un chanteur d'opéra qualifié peut atteindre 100-112 dB. La modulation du flux d'air par la vibration des cordes vocales et la création d'une surpression sous-pharyngienne, ces processus ont lieu dans le larynx, qui est une sorte de valve située à l'extrémité de la trachée. La valve remplit une double fonction : elle protège les poumons des corps étrangers et maintient une pression élevée. C'est le larynx qui agit comme une source de parole et de chant. Le larynx est un ensemble de cartilage relié par des muscles. Le larynx a une structure assez complexe, dont l'élément principal est une paire de cordes vocales. Ce sont les cordes vocales qui sont la principale (mais pas la seule) source de formation de la voix ou "vibreur". Au cours de ce processus, les cordes vocales bougent, accompagnées de frottements. Pour se protéger contre cela, une sécrétion muqueuse spéciale est sécrétée, qui agit comme un lubrifiant. La formation des sons de la parole est déterminée par les vibrations des ligaments, ce qui conduit à la formation d'un flux d'air expiré par les poumons, à un certain type de caractéristique d'amplitude. Entre les cordes vocales se trouvent de petites cavités qui agissent comme des filtres acoustiques et des résonateurs si nécessaire.

Caractéristiques de la perception auditive, sécurité d'écoute, seuils d'audition, adaptation, niveau de volume correct

Comme le montre la description de la structure de l'oreille humaine, cet organe est très délicat et de structure plutôt complexe. Compte tenu de ce fait, il n'est pas difficile de déterminer que cet appareil extrêmement fin et sensible a un ensemble de limitations, de seuils, etc. Le système auditif humain est adapté à la perception des sons calmes, ainsi que des sons d'intensité moyenne. L'exposition prolongée à des sons forts entraîne des déplacements irréversibles des seuils d'audition, ainsi que d'autres problèmes d'audition, jusqu'à la surdité complète. Le degré de dommage est directement proportionnel au temps d'exposition dans un environnement bruyant. À ce moment, le mécanisme d'adaptation entre également en vigueur - c'est-à-dire sous l'influence de sons forts prolongés, la sensibilité diminue progressivement, le volume perçu diminue, l'ouïe s'adapte.

L'adaptation vise initialement à protéger les organes auditifs des sons trop forts, cependant, c'est l'influence de ce processus qui amène le plus souvent une personne à augmenter le niveau de volume du système audio de manière incontrôlable. La protection est réalisée grâce au mécanisme de l'oreille moyenne et interne : l'étrier est rétracté de la fenêtre ovale, protégeant ainsi contre les sons trop forts. Mais le mécanisme de protection n'est pas idéal et a une temporisation, ne se déclenchant que 30 à 40 ms après le début de l'arrivée du son, de plus, une protection complète n'est pas obtenue même avec une durée de 150 ms. Le mécanisme de protection est activé lorsque le niveau de volume dépasse le niveau de 85 dB, de plus, la protection elle-même est jusqu'à 20 dB.
Le plus dangereux, dans ce cas, peut être considéré comme le phénomène de "décalage du seuil d'audition", qui se produit généralement dans la pratique à la suite d'une exposition prolongée à des sons forts supérieurs à 90 dB. Le processus de récupération du système auditif après de tels effets nocifs peut durer jusqu'à 16 heures. Le décalage de seuil commence déjà au niveau d'intensité de 75 dB et augmente proportionnellement avec l'augmentation du niveau de signal.

Lorsque l'on considère le problème du niveau correct d'intensité sonore, la pire chose à réaliser est le fait que les problèmes (acquis ou congénitaux) associés à l'audition sont pratiquement incurables à l'ère de la médecine assez avancée. Tout cela devrait amener toute personne sensée à penser à prendre soin de son audition, à moins, bien sûr, qu'il ne soit prévu de préserver son intégrité d'origine et sa capacité à entendre toute la gamme de fréquences le plus longtemps possible. Heureusement, tout n'est pas aussi effrayant que cela puisse paraître à première vue, et en suivant un certain nombre de précautions, vous pouvez facilement sauver votre audition même à un âge avancé. Avant d'envisager ces mesures, il est nécessaire de rappeler une caractéristique importante de la perception auditive humaine. L'aide auditive perçoit les sons de manière non linéaire. Un phénomène similaire consiste en ce qui suit : si vous imaginez une fréquence quelconque d'un son pur, par exemple 300 Hz, alors la non-linéarité se manifeste lorsque des harmoniques de cette fréquence fondamentale apparaissent dans l'oreillette selon le principe logarithmique (si la fréquence fondamentale est pris comme f, alors les harmoniques de fréquence seront 2f, 3f etc. dans l'ordre croissant). Cette non-linéarité est également plus facile à comprendre et est familière à beaucoup sous le nom "distorsion non linéaire". Étant donné que de telles harmoniques (harmoniques) ne se produisent pas dans le son pur d'origine, il s'avère que l'oreille elle-même introduit ses propres corrections et harmoniques dans le son d'origine, mais elles ne peuvent être déterminées que comme des distorsions subjectives. À un niveau d'intensité inférieur à 40 dB, aucune distorsion subjective ne se produit. Avec une augmentation de l'intensité à partir de 40 dB, le niveau des harmoniques subjectifs commence à augmenter, mais même au niveau de 80-90 dB, leur contribution négative au son est relativement faible (par conséquent, ce niveau d'intensité peut être conditionnellement considéré comme une sorte de "juste milieu" dans le domaine musical).

Sur la base de ces informations, vous pouvez facilement déterminer un niveau de volume sûr et acceptable qui ne nuira pas aux organes auditifs tout en permettant d'entendre absolument toutes les caractéristiques et tous les détails du son, par exemple en cas de travail avec un système "hi-fi". Ce niveau du "juste milieu" est d'environ 85-90 dB. C'est à cette intensité sonore qu'il est vraiment possible d'entendre tout ce qui est intégré dans le chemin audio, tandis que le risque de dommages prématurés et de perte auditive est minimisé. Presque complètement sûr peut être considéré comme un niveau de volume de 85 dB. Pour comprendre quel est le danger d'une écoute forte et pourquoi un niveau de volume trop bas ne permet pas d'entendre toutes les nuances du son, regardons ce problème plus en détail. En ce qui concerne les faibles niveaux de volume, le manque d'opportunité (mais plus souvent le désir subjectif) d'écouter de la musique à des niveaux faibles est dû aux raisons suivantes :

  1. Non-linéarité de la perception auditive humaine ;
  2. Caractéristiques de la perception psychoacoustique, qui seront considérées séparément.

La non-linéarité de la perception auditive, discutée ci-dessus, a un effet significatif à tout volume inférieur à 80 dB. En pratique, cela ressemble à ceci: si vous allumez la musique à un niveau silencieux, par exemple 40 dB, la gamme de fréquences moyennes de la composition musicale sera alors plus clairement audible, que ce soit la voix de l'interprète / interprète ou instruments jouant dans cette gamme. Dans le même temps, il y aura un manque évident de basses et hautes fréquences, en raison précisément de la non-linéarité de la perception, ainsi que du fait que différentes fréquences sonnent à des volumes différents. Ainsi, il est évident que pour une perception complète de l'intégralité de l'image, le niveau fréquentiel d'intensité doit être aligné le plus possible sur une valeur unique. Malgré le fait que même à un niveau de volume de 85 à 90 dB, l'égalisation idéalisée du volume des différentes fréquences ne se produit pas, le niveau devient acceptable pour une écoute quotidienne normale. Plus le volume est faible en même temps, plus la non-linéarité caractéristique sera clairement perçue à l'oreille, à savoir la sensation d'absence de la bonne quantité de hautes et basses fréquences. Dans le même temps, il s'avère qu'avec une telle non-linéarité, il est impossible de parler sérieusement de la reproduction d'un son "hi-fi" haute fidélité, car la précision de la transmission de l'image sonore d'origine sera extrêmement faible en cette situation particulière.

Si vous approfondissez ces conclusions, vous comprendrez pourquoi écouter de la musique à faible volume, bien que le plus sûr du point de vue de la santé, est ressenti extrêmement négativement par l'oreille en raison de la création d'images clairement invraisemblables d'instruments de musique et voix, l'absence d'une échelle de scène sonore. En général, la lecture de musique silencieuse peut être utilisée comme accompagnement de fond, mais il est totalement contre-indiqué d'écouter une haute qualité "hi-fi" à faible volume, pour les raisons ci-dessus, il est impossible de créer des images naturalistes de la scène sonore qui a été formé par l'ingénieur du son en studio lors de la phase d'enregistrement. Mais non seulement un faible volume introduit certaines restrictions sur la perception du son final, mais la situation est bien pire avec un volume accru. Il est possible et assez simple d'endommager votre audition et de réduire suffisamment la sensibilité si vous écoutez de la musique à des niveaux supérieurs à 90 dB pendant une longue période. Ces données sont basées sur un grand nombre d'études médicales, qui concluent que des niveaux sonores supérieurs à 90 dB causent des dommages réels et presque irréparables à la santé. Le mécanisme de ce phénomène réside dans la perception auditive et les caractéristiques structurelles de l'oreille. Lorsqu'une onde sonore d'une intensité supérieure à 90 dB pénètre dans le conduit auditif, les organes de l'oreille moyenne entrent en jeu, provoquant un phénomène appelé adaptation auditive.

Le principe de ce qui se passe dans ce cas est le suivant: l'étrier est rétracté de la fenêtre ovale et protège l'oreille interne des sons trop forts. Ce processus est appelé réflexe acoustique. À l'oreille, cela est perçu comme une diminution de sensibilité à court terme, ce qui peut être familier à quiconque a déjà assisté à des concerts de rock dans des clubs, par exemple. Après un tel concert, une diminution à court terme de la sensibilité se produit, qui, après un certain temps, revient à son niveau précédent. Cependant, la restauration de la sensibilité ne sera pas toujours et dépend directement de l'âge. Derrière tout cela se cache le grand danger d'écouter de la musique forte et d'autres sons dont l'intensité dépasse 90 dB. La survenue d'un réflexe acoustique n'est pas le seul danger "visible" de perte de sensibilité auditive. Lors d'une exposition prolongée à des sons trop forts, les poils situés dans la zone de l'oreille interne (qui réagissent aux vibrations) s'écartent très fortement. Dans ce cas, l'effet se produit que les cheveux responsables de la perception d'une certaine fréquence sont déviés sous l'influence de vibrations sonores de grande amplitude. À un moment donné, un tel cheveu peut trop dévier et ne jamais revenir. Cela entraînera une perte correspondante d'effet de sensibilité à une fréquence spécifique spécifique !

La chose la plus terrible dans toute cette situation est que les maladies de l'oreille sont pratiquement incurables, même avec les méthodes les plus modernes connues de la médecine. Tout cela conduit à des conclusions sérieuses : un son supérieur à 90 dB est dangereux pour la santé et est presque garanti de provoquer une perte auditive prématurée ou une diminution significative de la sensibilité. Ce qui est encore plus frustrant, c'est que la propriété d'adaptation mentionnée précédemment entre en jeu avec le temps. Ce processus dans les organes auditifs humains se produit presque imperceptiblement ; une personne qui perd lentement sa sensibilité, près de 100% de probabilité, ne s'en apercevra qu'au moment où les gens autour d'elle prêtent attention à poser constamment des questions, comme : "Qu'est-ce que tu viens de dire ?". La conclusion au final est extrêmement simple : lorsqu'on écoute de la musique, il est primordial de ne pas permettre des niveaux d'intensité sonore supérieurs à 80-85 dB ! Dans le même temps, il y a aussi un côté positif : le niveau de volume de 80-85 dB correspond approximativement au niveau d'enregistrement sonore de la musique dans un environnement de studio. Ainsi se pose le concept du «juste milieu» au-dessus duquel il vaut mieux ne pas s'élever si les problèmes de santé ont au moins une certaine importance.

Même une écoute de courte durée de musique à un niveau de 110-120 dB peut causer des problèmes d'audition, par exemple lors d'un concert en direct. Évidemment, éviter cela est parfois impossible ou très difficile, mais il est extrêmement important d'essayer de le faire afin de maintenir l'intégrité de la perception auditive. Théoriquement, une exposition à court terme à des sons forts (ne dépassant pas 120 dB), même avant l'apparition de la "fatigue auditive", n'entraîne pas de conséquences négatives graves. Mais en pratique, il existe généralement des cas d'exposition prolongée à un son d'une telle intensité. Les gens deviennent sourds sans se rendre compte de toute l'étendue du danger dans une voiture en écoutant un système audio, chez eux dans des conditions similaires, ou avec des écouteurs sur un baladeur. Pourquoi cela se produit-il et qu'est-ce qui rend le son de plus en plus fort ? Il y a deux réponses à cette question : 1) L'influence de la psychoacoustique, qui sera discutée séparément ; 2) Le besoin constant de "crier" certains sons externes avec le volume de la musique. Le premier aspect du problème est assez intéressant et sera discuté en détail plus tard, mais le deuxième côté du problème conduit davantage à des pensées négatives et à des conclusions sur une compréhension erronée des véritables fondements d'une écoute correcte du son du "salut- fi" classe.

Sans entrer dans les détails, la conclusion générale sur l'écoute de la musique et le volume correct est la suivante : l'écoute de la musique doit se produire à des niveaux d'intensité sonore non supérieurs à 90 dB, non inférieurs à 80 dB dans une pièce dans laquelle des sons parasites provenant de sources externes sont fortement étouffés ou totalement absents (tels que : conversations de voisins et autres bruits derrière le mur de l'appartement, bruits de rue et bruits techniques si vous êtes en voiture, etc.). Je voudrais souligner une fois pour toutes que c'est dans le cas du respect de ces exigences, probablement strictes, que vous pouvez atteindre l'équilibre de volume tant attendu, qui ne causera pas de dommages prématurés indésirables aux organes auditifs, et apportez également un réel plaisir à l'écoute de votre musique préférée avec les moindres détails du son dans les hautes et basses fréquences et la précision recherchée par le concept même de son "hi-fi".

Psychoacoustique et caractéristiques de la perception

Afin de répondre le plus complètement à certaines questions importantes concernant la perception finale des informations sonores par une personne, il existe toute une branche de la science qui étudie une grande variété de ces aspects. Cette section s'appelle "psychoacoustique". Le fait est que la perception auditive ne s'arrête pas seulement au travail des organes auditifs. Après la perception directe du son par l'organe de l'ouïe (l'oreille), puis le mécanisme le plus complexe et le moins étudié d'analyse des informations reçues entre en jeu, le cerveau humain en est entièrement responsable, qui est conçu de telle manière que pendant fonctionnement, il génère des ondes d'une certaine fréquence, et elles sont également indiquées en Hertz (Hz). Différentes fréquences d'ondes cérébrales correspondent à certains états d'une personne. Ainsi, il s'avère qu'écouter de la musique contribue à modifier l'accord de fréquence du cerveau, ce qu'il est important de prendre en compte lors de l'écoute de compositions musicales. Sur la base de cette théorie, il existe également une méthode de thérapie par le son par influence directe sur l'état mental d'une personne. Les ondes cérébrales sont de cinq types :

  1. Ondes delta (ondes inférieures à 4 Hz). Correspond à un état de sommeil profond sans rêves, alors qu'il n'y a aucune sensation du corps.
  2. Ondes thêta (ondes 4-7 Hz). L'état de sommeil ou de méditation profonde.
  3. Ondes alpha (ondes 7-13 Hz).États de relaxation et de relaxation pendant l'éveil, la somnolence.
  4. Ondes bêta (ondes 13-40 Hz). L'état d'activité, la pensée quotidienne et l'activité mentale, l'excitation et la cognition.
  5. Ondes gamma (ondes supérieures à 40 Hz). Un état d'activité mentale intense, de peur, d'excitation et de conscience.

La psychoacoustique, en tant que branche de la science, cherche des réponses aux questions les plus intéressantes concernant la perception finale des informations sonores par une personne. Au cours de l'étude de ce processus, un grand nombre de facteurs sont révélés, dont l'influence se produit invariablement à la fois dans le processus d'écoute de la musique et dans tout autre cas de traitement et d'analyse de toute information sonore. La psychoacoustique étudie presque toute la variété des influences possibles, en commençant par l'état émotionnel et mental d'une personne au moment de l'écoute, en terminant par les caractéristiques structurelles des cordes vocales (si nous parlons des particularités de percevoir toutes les subtilités de la voix performance) et le mécanisme de conversion du son en impulsions électriques du cerveau. Les facteurs les plus intéressants et les plus importants (qui sont essentiels à prendre en compte chaque fois que vous écoutez votre musique préférée, ainsi que lors de la construction d'un système audio professionnel) seront discutés plus loin.

Le concept de consonance, consonance musicale

Le dispositif du système auditif humain est unique, tout d'abord, dans le mécanisme de la perception sonore, la non-linéarité du système auditif, la capacité de regrouper les sons en hauteur avec un degré de précision assez élevé. La caractéristique la plus intéressante de la perception est la non-linéarité du système auditif, qui se manifeste par l'apparition d'harmoniques supplémentaires inexistantes (dans le ton principal), qui se manifeste particulièrement souvent chez les personnes ayant une hauteur musicale ou absolue. . Si nous nous arrêtons plus en détail et analysons toutes les subtilités de la perception du son musical, alors le concept de "consonance" et de "dissonance" de divers accords et intervalles de son se distingue facilement. concept "consonance" est défini comme un son de consonne (du mot français "consentement"), et vice versa, respectivement, "dissonance"- son incohérent, discordant. Malgré la variété des interprétations différentes de ces concepts des caractéristiques des intervalles musicaux, il est plus pratique d'utiliser l'interprétation "musico-psychologique" des termes : consonance est défini et ressenti par une personne comme un son doux, agréable et confortable ; dissonance d'autre part, il peut être caractérisé comme un son qui provoque de l'irritation, de l'anxiété et de la tension. Une telle terminologie est légèrement subjective, et aussi, dans l'histoire du développement de la musique, des intervalles complètement différents ont été pris pour la "consonne" et vice versa.

De nos jours, ces concepts sont également difficiles à percevoir sans ambiguïté, car il existe des différences entre les personnes ayant des préférences et des goûts musicaux différents, et il n'y a pas non plus de concept d'harmonie généralement reconnu et accepté. La base psychoacoustique de la perception de divers intervalles musicaux comme consonants ou dissonants dépend directement du concept de "bande critique". Bande critique- il s'agit d'une certaine largeur de bande, à l'intérieur de laquelle les sensations auditives changent radicalement. La largeur des bandes critiques augmente proportionnellement avec l'augmentation de la fréquence. Par conséquent, la sensation de consonances et de dissonances est directement liée à la présence de bandes critiques. L'organe auditif humain (l'oreille), comme mentionné précédemment, joue le rôle d'un filtre passe-bande à un certain stade de l'analyse des ondes sonores. Ce rôle est attribué à la membrane basilaire, sur laquelle se trouvent 24 bandes critiques dont la largeur dépend de la fréquence.

Ainsi, la consonance et l'incohérence (consonance et dissonance) dépendent directement de la résolution du système auditif. Il s'avère que si deux tonalités différentes sonnent à l'unisson ou si la différence de fréquence est nulle, alors c'est une consonance parfaite. La même consonance se produit si la différence de fréquence est supérieure à la bande critique. La dissonance ne se produit que lorsque la différence de fréquence est comprise entre 5 % et 50 % de la bande critique. Le degré de dissonance le plus élevé dans ce segment est entendu si la différence est d'un quart de la largeur de la bande critique. Sur cette base, il est facile d'analyser tout enregistrement musical mixte et combinaison d'instruments pour la consonance ou la dissonance du son. Il n'est pas difficile de deviner quel grand rôle l'ingénieur du son, le studio d'enregistrement et les autres composants de la bande sonore originale numérique ou analogique finale jouent dans ce cas, et tout cela avant même d'essayer de la reproduire sur un équipement de reproduction sonore.

Localisation sonore

Le système d'audition binaurale et de localisation spatiale aide une personne à percevoir la plénitude de l'image sonore spatiale. Ce mécanisme de perception est mis en œuvre par deux récepteurs auditifs et deux conduits auditifs. Les informations sonores qui transitent par ces canaux sont ensuite traitées dans la partie périphérique du système auditif et soumises à une analyse spectrale et temporelle. De plus, ces informations sont transmises aux parties supérieures du cerveau, où la différence entre le signal sonore gauche et droit est comparée, et une seule image sonore est également formée. Ce mécanisme décrit est appelé audition binaurale. Grâce à cela, une personne a de telles opportunités uniques:

1) localisation des signaux sonores d'une ou plusieurs sources, tout en formant une image spatiale de la perception du champ sonore
2) séparation des signaux provenant de différentes sources
3) la sélection de certains signaux par rapport à d'autres (par exemple, la sélection de la parole et de la voix à partir du bruit ou du son des instruments)

La localisation spatiale est facile à observer avec un exemple simple. Lors d'un concert, avec une scène et un certain nombre de musiciens dessus à une certaine distance les uns des autres, il est facile (si on le souhaite, même en fermant les yeux) de déterminer le sens d'arrivée du signal sonore de chaque instrument, pour évaluer la profondeur et la spatialité du champ sonore. De la même manière, un bon système hi-fi est apprécié, capable de "reproduire" de manière fiable de tels effets de spatialité et de localisation, "trompant" ainsi le cerveau, vous faisant ressentir toute la présence de votre interprète préféré lors d'une performance en direct. La localisation d'une source sonore est généralement déterminée par trois facteurs principaux : temporel, d'intensité et spectral. Indépendamment de ces facteurs, il existe un certain nombre de modèles qui peuvent être utilisés pour comprendre les bases de la localisation sonore.

Le plus grand effet de localisation, perçu par les organes auditifs humains, se situe dans la région des fréquences moyennes. Dans le même temps, il est presque impossible de déterminer la direction des sons de fréquences supérieures à 8000 Hz et inférieures à 150 Hz. Ce dernier fait est particulièrement utilisé dans les systèmes hi-fi et home cinéma lors du choix de l'emplacement d'un subwoofer (liaison basse fréquence), dont l'emplacement dans la pièce, en raison du manque de localisation des fréquences inférieures à 150 Hz, pratiquement n'a pas d'importance, et l'auditeur obtient en tout cas une image globale de la scène sonore. La précision de la localisation dépend de l'emplacement de la source de rayonnement des ondes sonores dans l'espace. Ainsi, la plus grande précision de localisation du son est notée dans le plan horizontal, atteignant une valeur de 3°. Dans le plan vertical, le système auditif humain détermine la direction de la source bien pire, la précision dans ce cas est de 10-15 ° (en raison de la structure spécifique des oreillettes et de la géométrie complexe). La précision de la localisation varie légèrement en fonction de l'angle des objets émettant du son dans l'espace avec des angles par rapport à l'auditeur, et le degré de diffraction des ondes sonores de la tête de l'auditeur affecte également l'effet final. Il convient également de noter que les signaux à large bande sont mieux localisés que le bruit à bande étroite.

Beaucoup plus intéressante est la situation avec la définition de la profondeur du son directionnel. Par exemple, une personne peut déterminer la distance à un objet par le son, mais cela se produit dans une plus grande mesure en raison d'un changement de pression acoustique dans l'espace. Habituellement, plus l'objet est éloigné de l'auditeur, plus les ondes sonores sont atténuées dans l'espace libre (à l'intérieur, l'influence des ondes sonores réfléchies s'ajoute). Ainsi, nous pouvons conclure que la précision de la localisation est plus élevée dans une pièce fermée précisément en raison de l'apparition de la réverbération. Les ondes réfléchies qui se produisent dans des espaces clos donnent lieu à des effets intéressants tels que l'expansion de la scène sonore, l'enveloppement, etc. Ces phénomènes sont possibles précisément en raison de la susceptibilité de la localisation sonore tridimensionnelle. Les principales dépendances qui déterminent la localisation horizontale du son sont : 1) la différence de temps d'arrivée d'une onde sonore dans l'oreille gauche et droite ; 2) la différence d'intensité due à la diffraction au niveau de la tête de l'auditeur. Pour déterminer la profondeur du son, la différence de niveau de pression acoustique et la différence de composition spectrale sont importantes. La localisation dans le plan vertical dépend également fortement de la diffraction dans l'oreillette.

La situation est plus compliquée avec les systèmes de son surround modernes basés sur la technologie dolby surround et analogues. Il semblerait que le principe de construction de systèmes de cinéma maison réglemente clairement la méthode de recréation d'une image spatiale assez naturaliste du son 3D avec le volume inhérent et la localisation des sources virtuelles dans l'espace. Cependant, tout n'est pas si anodin, puisque les mécanismes de perception et de localisation d'un grand nombre de sources sonores ne sont généralement pas pris en compte. La transformation du son par les organes de l'ouïe implique le processus d'ajout de signaux provenant de différentes sources qui sont parvenus à différentes oreilles. De plus, si la structure de phase de différents sons est plus ou moins synchrone, un tel processus est perçu à l'oreille comme un son émanant d'une source. Il existe également un certain nombre de difficultés, notamment les particularités du mécanisme de localisation, qui rendent difficile la détermination précise de la direction de la source dans l'espace.

Compte tenu de ce qui précède, la tâche la plus difficile consiste à séparer les sons de différentes sources, en particulier si ces différentes sources diffusent un signal amplitude-fréquence similaire. Et c'est exactement ce qui se passe en pratique dans n'importe quel système de son surround moderne, et même dans un système stéréo conventionnel. Lorsqu'une personne écoute un grand nombre de sons émanant de différentes sources, il y a d'abord une détermination de l'appartenance de chaque son particulier à la source qui le crée (regroupement par fréquence, hauteur, timbre). Et ce n'est que dans la deuxième étape que la rumeur tente de localiser la source. Après cela, les sons entrants sont divisés en flux basés sur des caractéristiques spatiales (différence de temps d'arrivée des signaux, différence d'amplitude). Sur la base des informations reçues, une image auditive plus ou moins statique et fixe est formée, à partir de laquelle il est possible de déterminer d'où provient chaque son particulier.

Il est très commode de retracer ces processus sur l'exemple d'une scène ordinaire avec des musiciens fixés dessus. En même temps, il est très intéressant de noter que si le chanteur/interprète, occupant une position initialement définie sur la scène, commence à se déplacer en douceur sur la scène dans n'importe quelle direction, l'image auditive précédemment formée ne changera pas ! La détermination de la direction du son provenant du chanteur restera subjectivement la même, comme s'il se tenait au même endroit où il se tenait avant de se déplacer. Ce n'est que dans le cas d'un changement brusque de l'emplacement de l'interprète sur la scène que la division de l'image sonore formée se produira. En plus des problèmes considérés et de la complexité des processus de localisation du son dans l'espace, dans le cas des systèmes de sonorisation multicanal, le processus de réverbération dans la salle d'écoute finale joue un rôle assez important. Cette dépendance est plus clairement observée lorsqu'un grand nombre de sons réfléchis proviennent de toutes les directions - la précision de localisation se détériore considérablement. Si la saturation énergétique des ondes réfléchies est supérieure (prévaut) aux sons directs, le critère de localisation dans une telle pièce devient extrêmement flou, il est extrêmement difficile (voire impossible) de parler de la précision de la détermination de telles sources.

Cependant, dans une salle très réverbérante, la localisation se produit théoriquement ; dans le cas des signaux à large bande, l'audition est guidée par le paramètre de différence d'intensité. Dans ce cas, la direction est déterminée par la composante haute fréquence du spectre. Dans n'importe quelle pièce, la précision de la localisation dépendra de l'heure d'arrivée des sons réfléchis après les sons directs. Si l'intervalle entre ces signaux sonores est trop petit, la "loi de l'onde directe" commence à fonctionner pour aider le système auditif. L'essence de ce phénomène: si des sons avec un court intervalle de temps proviennent de différentes directions, alors la localisation de l'ensemble du son se produit en fonction du premier son arrivé, c'est-à-dire l'ouïe ignore dans une certaine mesure le son réfléchi s'il survient trop peu de temps après le son direct. Un effet similaire apparaît également lorsque la direction d'arrivée du son dans le plan vertical est déterminée, mais dans ce cas, elle est beaucoup plus faible (en raison du fait que la sensibilité du système auditif à la localisation dans le plan vertical est sensiblement pire).

L'essence de l'effet de préséance est beaucoup plus profonde et a une nature psychologique plutôt que physiologique. Un grand nombre d'expériences ont été réalisées, sur la base desquelles la dépendance a été établie. Cet effet se produit principalement lorsque le moment d'apparition de l'écho, son amplitude et sa direction coïncident avec une certaine "attente" de l'auditeur quant à la façon dont l'acoustique de cette pièce particulière forme une image sonore. Peut-être que la personne a déjà eu l'expérience d'écouter dans cette pièce ou similaire, ce qui forme la prédisposition du système auditif à l'apparition de l'effet "attendu" de préséance. Afin de contourner ces limitations inhérentes à l'audition humaine, dans le cas de plusieurs sources sonores, divers trucs et astuces sont utilisés, à l'aide desquels une localisation plus ou moins plausible des instruments de musique / autres sources sonores dans l'espace est finalement formée . Dans l'ensemble, la reproduction d'images sonores stéréo et multicanaux repose sur de nombreuses tromperies et la création d'une illusion auditive.

Lorsque deux enceintes ou plus (par exemple, 5.1 ou 7.1, voire 9.1) reproduisent le son de différents points de la pièce, l'auditeur entend des sons provenant de sources inexistantes ou imaginaires, percevant un certain panorama sonore. La possibilité de cette tromperie réside dans les caractéristiques biologiques de la structure du corps humain. Très probablement, une personne n'a pas eu le temps de s'adapter à la reconnaissance d'une telle tromperie en raison du fait que les principes de la reproduction sonore "artificielle" sont apparus relativement récemment. Mais, bien que le processus de création d'une localisation imaginaire se soit avéré possible, la mise en œuvre est encore loin d'être parfaite. Le fait est que l'ouïe perçoit vraiment une source sonore là où elle n'existe pas réellement, mais l'exactitude et la précision de la transmission des informations sonores (en particulier le timbre) est une grande question. Par la méthode de nombreuses expériences dans des salles de réverbération réelles et dans des chambres étouffées, il a été constaté que le timbre des ondes sonores diffère des sources réelles et imaginaires. Cela affecte principalement la perception subjective de l'intensité spectrale, le timbre dans ce cas change de manière significative et perceptible (par rapport à un son similaire reproduit par une source réelle).

Dans le cas des systèmes de cinéma maison multicanaux, le niveau de distorsion est sensiblement plus élevé, pour plusieurs raisons : 1) De nombreux signaux sonores similaires en amplitude-fréquence et réponse en phase proviennent simultanément de différentes sources et directions (y compris les ondes réfléchies) à chaque conduit auditif. Cela conduit à une distorsion accrue et à l'apparition d'un filtrage en peigne. 2) Un fort espacement des haut-parleurs dans l'espace (les uns par rapport aux autres, dans les systèmes multicanaux, cette distance peut être de plusieurs mètres ou plus) contribue à la croissance de la distorsion du timbre et de la coloration du son dans la région de la source imaginaire. En conséquence, nous pouvons dire que la coloration du timbre dans les systèmes de son multicanaux et surround se produit en pratique pour deux raisons : le phénomène de filtrage en peigne et l'influence des processus de réverbération dans une pièce particulière. Si plusieurs sources sont responsables de la reproduction des informations sonores (ceci s'applique également à un système stéréo à 2 sources), l'effet de "filtrage en peigne" est inévitable, causé par des temps d'arrivée différents des ondes sonores sur chaque canal auditif. Une irrégularité particulière est observée dans la région de la moyenne supérieure 1-4 kHz.

Le contenu de l'article

AUDIENCE, capacité à percevoir les sons. L'ouïe dépend : 1) de l'oreille - externe, moyenne et interne - qui perçoit les vibrations sonores ; 2) le nerf auditif, qui transmet les signaux reçus de l'oreille ; 3) certaines parties du cerveau (centres auditifs), dans lesquelles les impulsions transmises par les nerfs auditifs provoquent la prise de conscience des signaux sonores d'origine.

Toute source sonore - une corde de violon sur laquelle un archet a été tiré, une colonne d'air se déplaçant dans un tuyau d'orgue ou les cordes vocales d'une personne qui parle - provoque des vibrations dans l'air ambiant : d'abord une compression instantanée, puis une raréfaction instantanée. En d'autres termes, chaque source sonore émet une série d'ondes alternées haute et basse pression qui se propagent rapidement dans l'air. Ce flux d'ondes en mouvement forme le son perçu par les organes auditifs.

La plupart des sons que nous rencontrons chaque jour sont assez complexes. Ils sont générés par des mouvements oscillatoires complexes de la source sonore, créant tout un complexe d'ondes sonores. Les expériences auditives tentent de choisir des signaux sonores aussi simples que possible afin de faciliter l'évaluation des résultats. Beaucoup d'efforts sont consacrés à fournir de simples oscillations périodiques de la source sonore (comme un pendule). Le flux résultant d'ondes sonores d'une fréquence est appelé un son pur ; c'est un changement régulier et régulier de haute et basse pression.

Les limites de la perception auditive.

La source sonore "idéale" décrite peut être amenée à osciller rapidement ou lentement. Cela nous permet de clarifier l'une des principales questions qui se posent dans l'étude de l'audition, à savoir quelle est la fréquence minimale et maximale des oscillations perçues par l'oreille humaine comme un son. Les expériences ont montré ce qui suit. Lorsque les oscillations sont très lentes, moins de 20 oscillations complètes par seconde (20 Hz), chaque onde sonore est entendue séparément et ne forme pas une tonalité continue. À mesure que la fréquence de vibration augmente, une personne commence à entendre une tonalité basse continue, semblable au son du tuyau de basse le plus bas d'un orgue. Au fur et à mesure que la fréquence augmente, le ton perçu devient de plus en plus élevé; à une fréquence de 1000 Hz, il ressemble au do supérieur d'une soprano. Cependant, cette note est encore loin de la limite supérieure de l'audition humaine. Ce n'est que lorsque la fréquence approche d'environ 20 000 Hz que l'oreille humaine normale cesse progressivement d'entendre.

La sensibilité de l'oreille aux vibrations sonores de fréquences différentes n'est pas la même. Il est particulièrement sensible aux fluctuations de moyenne fréquence (de 1000 à 4000 Hz). Ici la sensibilité est si grande que toute augmentation significative de celle-ci serait défavorable : dans le même temps, un bruit de fond constant du mouvement aléatoire des molécules d'air serait perçu. Lorsque la fréquence diminue ou augmente par rapport à la plage moyenne, l'acuité auditive diminue progressivement. Aux confins de la gamme de fréquences perçues, le son doit être très fort pour être entendu, si fort qu'il est parfois ressenti physiquement avant d'être entendu.

Le son et sa perception.

Un son pur a deux caractéristiques indépendantes : 1) la fréquence et 2) la force ou l'intensité. La fréquence est mesurée en hertz, c'est-à-dire est déterminé par le nombre de cycles oscillatoires complets par seconde. L'intensité est mesurée par l'amplitude de la pression de pulsation des ondes sonores sur n'importe quelle surface de comptoir et est généralement exprimée en unités logarithmiques relatives - décibels (dB). Il faut se rappeler que les concepts de fréquence et d'intensité ne s'appliquent qu'au son en tant que stimulus physique externe ; c'est le soi-disant. caractéristiques acoustiques du son. Quand on parle de perception, c'est-à-dire En ce qui concerne le processus physiologique, le son est évalué comme élevé ou bas et sa force est perçue comme une intensité. En général, la hauteur - la caractéristique subjective du son - est étroitement liée à sa fréquence ; les sons à haute fréquence sont perçus comme aigus. Aussi, en général, on peut dire que le volume perçu dépend de la force du son : on entend des sons plus intenses comme plus forts. Ces ratios, cependant, ne sont pas fixes et absolus, comme on le suppose souvent. La hauteur perçue d'un son est affectée dans une certaine mesure par sa force, tandis que le volume perçu est affecté par sa fréquence. Ainsi, en changeant la fréquence d'un son, on peut éviter de changer la hauteur perçue en faisant varier sa force en conséquence.

"Différence minimale notable."

D'un point de vue pratique et théorique, déterminer la différence minimale perceptible par l'oreille dans la fréquence et la force du son est un problème très important. Comment la fréquence et la force des signaux audio doivent-elles être modifiées pour que l'auditeur s'en aperçoive ? Il s'est avéré que la différence minimale perceptible est déterminée par le changement relatif des caractéristiques du son, plutôt que par des changements absolus. Cela s'applique à la fois à la fréquence et à la force du son.

Le changement relatif de fréquence nécessaire à la discrimination est différent à la fois pour les sons de fréquences différentes et pour les sons de même fréquence, mais d'intensités différentes. On peut dire cependant qu'elle est d'environ 0,5 % sur une large gamme de fréquences allant de 1000 à 12 000 Hz. Ce pourcentage (ce que l'on appelle le seuil de discrimination) est légèrement plus élevé à des fréquences plus élevées et beaucoup plus élevé à des fréquences plus basses. Par conséquent, l'oreille est moins sensible au changement de fréquence aux extrémités de la gamme de fréquences qu'au milieu de gamme, et cela est souvent remarqué par tous les pianistes ; l'intervalle entre deux notes très hautes ou très basses semble être plus court que celui des notes dans le médium.

La différence minimale notable en termes de puissance sonore est quelque peu différente. La discrimination nécessite un changement assez important de la pression des ondes sonores, environ 10% (c'est-à-dire environ 1 dB), et cette valeur est relativement constante pour les sons de presque toutes les fréquences et intensités. Cependant, lorsque l'intensité du stimulus est faible, la différence minimale perceptible augmente de manière significative, en particulier pour les tonalités à basse fréquence.

Harmonieux dans l'oreille.

Une propriété caractéristique de presque toutes les sources sonores est qu'elles produisent non seulement de simples oscillations périodiques (tonalité pure), mais effectuent également des mouvements oscillatoires complexes qui donnent plusieurs tonalités pures en même temps. En règle générale, une tonalité aussi complexe se compose de séries harmoniques (harmoniques), c'est-à-dire à partir de la fréquence fondamentale la plus basse plus les harmoniques dont les fréquences dépassent la fondamentale d'un nombre entier de fois (2, 3, 4, etc.). Ainsi, un objet vibrant à une fréquence fondamentale de 500 Hz peut également produire des harmoniques de 1000, 1500, 2000 Hz, etc. L'oreille humaine réagit à un signal sonore de la même manière. Les caractéristiques anatomiques de l'oreille offrent de nombreuses opportunités pour convertir l'énergie d'un son pur entrant, au moins partiellement, en harmoniques. Ainsi, même lorsque la source donne une tonalité pure, un auditeur attentif peut entendre non seulement la tonalité principale, mais aussi une ou deux harmoniques à peine perceptibles.

L'interaction de deux tons.

Lorsque deux tons purs sont perçus simultanément par l'oreille, on peut observer les variantes suivantes de leur action conjointe, selon la nature des tons eux-mêmes. Ils peuvent se masquer en réduisant mutuellement le volume. Cela se produit le plus souvent lorsque les tonalités ne varient pas beaucoup en fréquence. Deux tons peuvent se connecter. En même temps, on entend des sons correspondant soit à la différence de fréquences entre eux, soit à la somme de leurs fréquences. Lorsque deux tonalités sont très proches en fréquence, nous entendons une seule tonalité dont la hauteur correspond à peu près à cette fréquence. Cette tonalité, cependant, devient plus forte et plus silencieuse lorsque les deux signaux acoustiques légèrement incompatibles interagissent continuellement, s'amplifiant et s'annulant.

Timbre.

Objectivement parlant, les mêmes tons complexes peuvent différer dans le degré de complexité, c'est-à-dire composition et intensité des harmoniques. La caractéristique subjective de la perception, qui reflète généralement la particularité du son, est le timbre. Ainsi, les sensations provoquées par un ton complexe se caractérisent non seulement par une certaine hauteur et intensité, mais également par un timbre. Certains sons sont riches et pleins, d'autres non. Tout d'abord, grâce aux différences de timbre, nous reconnaissons les voix de divers instruments parmi une variété de sons. Une note A jouée sur un piano peut être facilement distinguée de la même note jouée sur un cor. Si toutefois on parvient à filtrer et étouffer les harmoniques de chaque instrument, ces notes ne peuvent être distinguées.

Localisation sonore.

L'oreille humaine ne fait pas seulement la distinction entre les sons et leurs sources ; les deux oreilles, travaillant ensemble, sont capables de déterminer assez précisément la direction d'où provient le son. Comme les oreilles sont situées sur les côtés opposés de la tête, les ondes sonores de la source sonore ne les atteignent pas en même temps et agissent avec des forces légèrement différentes. En raison de la différence minimale de temps et de force, le cerveau détermine assez précisément la direction de la source sonore. Si la source sonore est strictement devant, le cerveau la localise le long de l'axe horizontal avec une précision de plusieurs degrés. Si la source est décalée d'un côté, la précision de localisation est légèrement inférieure. Distinguer le son de derrière du son de devant, ainsi que le localiser le long de l'axe vertical, est un peu plus difficile.

Bruit

souvent décrit comme un son atonal, c'est-à-dire composé de divers fréquences qui ne sont pas liées les unes aux autres et ne répètent donc pas une telle alternance d'ondes de haute et basse pression de manière suffisamment cohérente pour obtenir une fréquence particulière. Cependant, en fait, presque tous les "bruits" ont leur propre hauteur, ce qui est facile à voir en écoutant et en comparant les bruits ordinaires. D'autre part, tout "ton" a des éléments de rugosité. Par conséquent, les différences entre le bruit et le ton sont difficiles à définir en ces termes. La tendance actuelle est de définir le bruit de manière psychologique plutôt qu'acoustique, en qualifiant simplement le bruit de son indésirable. La réduction du bruit dans ce sens est devenue un problème moderne pressant. Bien qu'un bruit fort et continu conduise sans aucun doute à la surdité et que le travail dans des conditions bruyantes provoque un stress temporaire, il a probablement un effet moins durable et moins puissant qu'on ne lui attribue parfois.

Audition et audition anormales chez les animaux.

Le stimulus naturel de l'oreille humaine est la propagation du son dans l'air, mais l'oreille peut être affectée d'autres manières. Tout le monde, par exemple, sait bien que le son s'entend sous l'eau. De plus, si une source de vibration est appliquée sur la partie osseuse de la tête, une sensation sonore apparaît en raison de la conduction osseuse. Ce phénomène est très utile dans certaines formes de surdité : un petit émetteur appliqué directement sur l'apophyse mastoïdienne (la partie du crâne située juste derrière l'oreille) permet au patient d'entendre les sons amplifiés par l'émetteur à travers les os du crâne en raison à la conduction osseuse.

Bien sûr, les humains ne sont pas les seuls à entendre. La capacité d'entendre apparaît tôt dans l'évolution et existe déjà chez les insectes. Différents types d'animaux perçoivent des sons de fréquences différentes. Certaines personnes entendent une plus petite gamme de sons qu'une personne, d'autres une plus grande. Un bon exemple est un chien, dont l'oreille est sensible aux fréquences au-delà de l'audition humaine. Une utilisation pour cela est de produire des sifflets inaudibles pour les humains mais suffisants pour les chiens.

Perception humaine des sons

1. Caractéristiques de la perception des sons par l'oreille humaine

Tous les programmes transmis par des systèmes de radiodiffusion, de communication et d'enregistrement sonore sont destinés à la perception humaine de l'information. Par conséquent, les exigences relatives aux principales caractéristiques de ces systèmes ne peuvent être raisonnablement formulées sans des informations précises sur les propriétés de l'audition. Toute amélioration du système, qui ne se fera pas sentir à l'oreille, entraînera une perte de temps et d'argent insensée. Par conséquent, un spécialiste engagé dans le développement ou l'exploitation de systèmes d'enregistrement et de lecture du son doit connaître les principales caractéristiques de la perception des sons par l'oreille humaine.

L'organe auditif humain est situé dans l'épaisseur des os temporaux et est divisé en oreille externe, oreille moyenne et oreille interne. L'oreille externe comprend l'oreillette et le méat auditif, se terminant aveuglément par le tympan. Le conduit auditif a une faible résonance à une fréquence d'environ 3 kHz et une augmentation à une fréquence de résonance de ~ 3. Le tympan est formé par un tissu conjonctif élastique qui vibre sous l'action des ondes sonores. Derrière la membrane tympanique se trouve l'oreille moyenne, qui comprend : la cavité tympanique remplie d'air ; les osselets auditifs et la trompe auditive (Eustache), qui relie la cavité de l'oreille moyenne à la cavité pharyngée. Les osselets auditifs : le marteau, l'enclume et l'étrier forment un système de levier qui transmet les vibrations de la membrane tympanique à la membrane fenêtre ovale qui sépare l'oreille moyenne et l'oreille interne. Ce système de levier transforme les vibrations de la membrane tympanique avec une grande amplitude de vitesse et une petite amplitude de pression en vibrations de la membrane avec une petite amplitude de vitesse et une grande amplitude de pression. Le rapport de transformation de ce système est d'environ 50 à 60. La cavité tympanique a une résonance faiblement prononcée à une fréquence d'environ 1200 Hz. Derrière la membrane du foramen ovale se trouve l'oreille interne, qui se compose du vestibule, de trois canaux semi-circulaires et de la cochlée remplie de liquide. Les canaux semi-circulaires font partie de l'organe de l'équilibre et la cochlée fait partie de l'organe de l'ouïe. La cochlée est un canal d'environ 32 mm de long, enroulé. Le canal est divisé sur toute sa longueur par deux cloisons : la membrane de Reisner et la membrane basilaire (principale) (voir Fig. 1).


Par un - un

1 - membrane de fenêtre ovale, 2 - passage vestibulaire, 3 - hélicotrème, 4 - membrane basilaire, 5 - organe de Corti, 6 - passage tympanique, 7 - membrane de fenêtre ronde, 8 - membrane de Reisner.

Figure 1. Schéma de la structure de la cochlée

La membrane basilaire est constituée de plusieurs milliers de fibres étirées à travers la cochlée et reliées les unes aux autres de manière lâche. La membrane basilaire se dilate à mesure qu'elle s'éloigne du foramen ovale. L'organe de Corti est relié à la membrane basilaire, composée d'environ 23 500 cellules nerveuses, appelées cellules ciliées. Plusieurs cellules ciliées sont associées à chaque fibre du nerf auditif, de sorte qu'environ 10 000 fibres pénètrent dans le système nerveux central. Lorsque le son apparaît, la membrane de la fenêtre ovale excite des oscillations lymphatiques dans le passage vestibulaire, qui font vibrer les fibres de la membrane basilaire. Les vibrations des fibres, à leur tour, excitent les cellules ciliées. Informations sur l'excitation des cellules, c'est-à-dire sur la présence du son, est transmis le long des fibres nerveuses au cerveau.

2. Perception de la fréquence des vibrations sonores

Les fibres de la membrane basilaire ont des longueurs différentes et, par conséquent, des fréquences de résonance différentes. Les fibres les plus courtes sont situées près de la fenêtre ovale, leur fréquence de résonance est de ~ 16000 Hz. Les plus longs sont proches de l'hélicotrème et ont une fréquence de résonance d'environ 20 Hz.

Ainsi, l'oreille interne effectue une analyse spectrale parallèle des vibrations entrantes et permet de percevoir des sons avec des fréquences de ~20 Hz à ~20 000 Hz. Le circuit électrique équivalent de l'analyseur peut être représenté comme suit (voir Fig. 2).

L" 2


Figure 2. Circuit électrique équivalent d'un analyseur auditif.

Le circuit équivalent contient ~140 liaisons parallèles - résonateurs qui simulent les fibres de la membrane basilaire, les inductances L"i connectées en série sont équivalentes à la masse de la lymphe, le courant dans les résonateurs est proportionnel à la vitesse des fibres. La sélectivité des résonateurs est faible.

Ainsi, pour une fréquence de 250 Hz, la bande passante du résonateur est ~ 35 Hz (Q = 7), pour une fréquence de 1000 Hz elle est de 50 Hz (Q = 20), et pour une fréquence de 4000 Hz elle est de 200 Hz ( Q = 20). Ces bandes passantes caractérisent le soi-disant. séquences critiques. Le concept de séquences auditives critiques est utilisé lors du calcul de l'intelligibilité de la parole, etc.

Étant donné que plusieurs cellules ciliées sont associées à une fibre nerveuse, une personne ne peut se souvenir de plus de 250 gradations dans toute la gamme de fréquences.Avec une diminution de l'intensité sonore, ce nombre diminue et est en moyenne de 150 gradations.

Les valeurs de fréquence voisines diffèrent d'au moins 4 %. Ce qui coïncide à peu près avec la largeur des bandes auditives critiques (pour cette raison, les films tournés à 24 images par seconde peuvent être diffusés à la télévision à -25 images par seconde. Même les musiciens sophistiqués ne remarquent pas la différence de son).

Cependant, avec la présence simultanée de deux vibrations, l'oreille détecte une différence de fréquences de ~ 0,5 Hz due à l'apparition des battements.

La fréquence des vibrations sonores provoque une sensation d'une qualité sonore appelée hauteur. L'augmentation progressive de la fréquence de vibration provoque une sensation de changement de tonalité de bas (grave) à haut. La hauteur est décrite par l'échelle des notes de musique, qui est uniquement liée à l'échelle des fréquences.

L'intervalle entre deux fréquences détermine la quantité de changement de hauteur. L'unité de base du changement de hauteur est l'octave. Une octave correspond à un changement de fréquence deux fois : 1 octave

. Le nombre d'octaves par lequel le ton a changé peut être déterminé comme suit : . Une octave est un grand intervalle de hauteur, donc des intervalles plus petits sont utilisés : tierces, demi-tons, cents. octave = 3 tierces = 12 demi-tons = 1200 cents. Rapport de fréquence: dans un tiers - 1,26, pour un demi-ton - 1,06, pour un cent - 1,0006.

Le son, comme un signal, a un nombre infini de vibrations et peut transporter la même quantité infinie d'informations. Le degré de sa perception sera différent selon les capacités physiologiques de l'oreille, dans ce cas, à l'exclusion des facteurs psychologiques. Selon le type de bruit, sa fréquence et sa pression, une personne ressent son influence sur elle-même.

Seuil de sensibilité de l'oreille humaine en décibels

Une personne perçoit la fréquence du son de 16 à 20 000 Hz. Les tympans sont sensibles à la pression des vibrations sonores dont le niveau se mesure en décibels (dB). Le niveau optimal est de 35 à 60 dB, un bruit de 60 à 70 dB améliore le travail mental, plus de 80 dB, au contraire, affaiblit l'attention et altère le processus de réflexion, et la perception à long terme d'un son supérieur à 80 dB peut provoquer une audition perte.

Une fréquence allant jusqu'à 10-15 Hz est un infrason, non perçu par l'oreille, qui provoque des vibrations de résonance. La capacité de contrôler les vibrations créées par le son est l'arme de destruction massive la plus puissante. Inaudibles à l'oreille, les infrasons sont capables de parcourir de longues distances, de transmettre des ordres qui font agir les gens selon un certain scénario, provoquent la panique et l'horreur, leur font oublier tout ce qui n'a rien à voir avec le désir de se cacher, d'échapper à ce craindre. Et avec un certain rapport de fréquence et de pression acoustique, un tel appareil est capable non seulement de supprimer la volonté, mais aussi de tuer, de blesser les tissus humains.

Seuil de sensibilité absolue de l'oreille humaine en décibels

La gamme de 7 à 13 Hz émet des catastrophes naturelles : volcans, tremblements de terre, typhons et provoque un sentiment de panique et d'horreur. Étant donné que le corps humain a également une fréquence d'oscillation, qui varie de 8 à 15 Hz, à l'aide de tels infrasons, il ne coûte rien de créer une résonance et de décupler l'amplitude afin de conduire une personne au suicide ou d'endommager les organes internes.

Aux basses fréquences et à haute pression, des nausées et des douleurs à l'estomac apparaissent, qui se transforment rapidement en troubles graves du tractus gastro-intestinal, et une augmentation de la pression à 150 dB entraîne des dommages physiques. Les résonances des organes internes à basses fréquences provoquent des saignements et des spasmes, à fréquences moyennes - excitation nerveuse et lésion des organes internes, à hautes fréquences - jusqu'à 30 Hz - brûlures des tissus.

Dans le monde moderne, le développement d'armes sonores est activement en cours et, apparemment, ce n'est pas en vain que le microbiologiste allemand Robert Koch a prédit qu'il faudrait rechercher une "vaccination" contre le bruit comme la peste ou le choléra.

ENCYCLOPÉDIE DE MÉDECINE

PHYSIOLOGIE

Comment l'oreille perçoit-elle les sons ?

L'oreille est l'organe qui convertit les ondes sonores en impulsions nerveuses que le cerveau peut percevoir. Interagissant les uns avec les autres, les éléments de l'oreille interne donnent

nous la capacité de distinguer les sons.

Anatomiquement divisé en trois parties :

□ Oreille externe - conçue pour diriger les ondes sonores dans les structures internes de l'oreille. Il se compose de l'oreillette, qui est un cartilage élastique recouvert de peau avec du tissu sous-cutané, relié à la peau du crâne et au conduit auditif externe - le tube auditif, recouvert de cérumen. Ce tube se termine au niveau du tympan.

□ L'oreille moyenne est une cavité à l'intérieur de laquelle se trouvent de petits osselets auditifs (marteau, enclume, étrier) et les tendons de deux petits muscles. La position de l'étrier lui permet de frapper la fenêtre ovale, qui est l'entrée de la cochlée.

□ L'oreille interne comprend :

■ des canaux semi-circulaires du labyrinthe osseux et du vestibule du labyrinthe, qui font partie de l'appareil vestibulaire ;

■ de la cochlée - le véritable organe de l'ouïe. La cochlée de l'oreille interne ressemble beaucoup à la coquille d'un escargot vivant. transversal

section, vous pouvez voir qu'il se compose de trois parties longitudinales : la rampe tympanique, la rampe vestibulaire et le canal cochléaire. Les trois structures sont remplies de liquide. Le canal cochléaire abrite l'organe spiral de Corti. Il se compose de 23 500 cellules poilues sensibles qui captent les ondes sonores et les transmettent ensuite au cerveau par le nerf auditif.

anatomie de l'oreille

l'oreille externe

Comprend l'oreillette et le conduit auditif externe.

Oreille moyenne

Contient trois petits os : marteau, enclume et étrier.

oreille interne

Contient les canaux semi-circulaires du labyrinthe osseux, le vestibule du labyrinthe et la cochlée.

< Наружная, видимая часть уха называется ушной раковиной. Она служит для передачи звуковых волн в слуховой канал, а оттуда в среднее и внутреннее ухо.

A L'oreille externe, moyenne et interne joue un rôle important dans la conduite et la transmission du son de l'environnement externe au cerveau.

Qu'est-ce que le son

Le son voyage à travers l'atmosphère, passant d'une région de haute pression à une région de basse pression.

Onde sonore

avec une fréquence plus élevée (bleu) correspond à un son aigu. Le vert indique un son faible.

La plupart des sons que nous entendons sont une combinaison d'ondes sonores de fréquence et d'amplitude variables.

Le son est une forme d'énergie; l'énergie sonore est transmise dans l'atmosphère sous forme de vibrations des molécules d'air. En l'absence de milieu moléculaire (air ou autre), le son ne peut se propager.

MOUVEMENT DES MOLÉCULES Dans l'atmosphère où se propage le son, il existe des zones de haute pression dans lesquelles les molécules d'air sont plus proches les unes des autres. Ils alternent avec des zones de basse pression où les molécules d'air sont plus éloignées les unes des autres.

Certaines molécules, lorsqu'elles entrent en collision avec des molécules voisines, leur transfèrent leur énergie. Une onde est créée qui peut se propager sur de longues distances.

Ainsi, l'énergie sonore est transmise.

Lorsque les ondes haute et basse pression sont uniformément réparties, la tonalité est dite claire. Un diapason crée une telle onde sonore.

Les ondes sonores qui se produisent lors de la reproduction de la parole sont réparties de manière inégale et sont combinées.

PITCH ET AMPLITUDE Le pitch d'un son est déterminé par la fréquence de l'onde sonore. Elle est mesurée en hertz (Hz) Plus la fréquence est élevée, plus le son est aigu. L'intensité d'un son est déterminée par l'amplitude des oscillations de l'onde sonore. L'oreille humaine perçoit des sons dont la fréquence est comprise entre 20 et 20 000 Hz.

< Полный диапазон слышимости человека составляет от 20 до 20 ООО Гц. Человеческое ухо может дифференцировать примерно 400 ООО различных звуков.

Ces deux bœufs ont la même fréquence, mais des a^vviy-du différents (une couleur bleu clair correspond à un son plus fort).