Comment entendons-nous le mot temps. Comment entend-on différents sons ? Méthodes d'évaluation objective de l'audition

L'oreille externe comprend le pavillon, le conduit auditif et la membrane tympanique, qui recouvre l'extrémité interne du conduit auditif. Le conduit auditif a une forme incurvée irrégulière. Chez un adulte, il mesure environ 2,5 cm de long et environ 8 mm de diamètre. La surface du conduit auditif est recouverte de poils et contient des glandes qui sécrètent du cérumen, nécessaire au maintien de l'hydratation de la peau. Le méat auditif fournit également une température et une humidité constantes de la membrane tympanique.

  • Oreille moyenne

L'oreille moyenne est une cavité remplie d'air derrière le tympan. Cette cavité se connecte au nasopharynx par la trompe d'Eustache, un canal cartilagineux étroit généralement fermé. La déglutition ouvre la trompe d'Eustache, ce qui permet à l'air d'entrer dans la cavité et égalise la pression des deux côtés du tympan pour une mobilité optimale. L'oreille moyenne contient trois osselets auditifs miniatures : le marteau, l'enclume et l'étrier. Une extrémité du marteau est reliée à la membrane tympanique, son autre extrémité est reliée à l'enclume, qui, à son tour, est reliée à l'étrier, et l'étrier à la cochlée de l'oreille interne. La membrane tympanique oscille constamment sous l'influence des sons captés par l'oreille, et les osselets auditifs transmettent ses vibrations à l'oreille interne.

  • oreille interne

L'oreille interne contient plusieurs structures, mais seule la cochlée, qui tire son nom de sa forme en spirale, est pertinente pour l'audition. La cochlée est divisée en trois canaux remplis de fluides lymphatiques. Le fluide dans le canal du milieu diffère en composition du fluide dans les deux autres canaux. L'organe directement responsable de l'ouïe (l'organe de Corti) est situé dans le canal médian. L'organe de Corti contient environ 30 000 cellules ciliées, qui captent les fluctuations du liquide dans le canal causées par le mouvement de l'étrier et génèrent des impulsions électriques qui sont transmises le long du nerf auditif au cortex auditif du cerveau. Chaque cellule ciliée répond à une fréquence sonore spécifique, les hautes fréquences étant captées par les cellules de la cochlée inférieure, et les cellules accordées aux basses fréquences sont situées dans la cochlée supérieure. Si les cellules ciliées meurent pour une raison quelconque, la personne cesse de percevoir les sons des fréquences correspondantes.

  • voies auditives

Les voies auditives sont un ensemble de fibres nerveuses qui conduisent les impulsions nerveuses de la cochlée aux centres auditifs du cortex cérébral, entraînant une sensation auditive. Les centres auditifs sont situés dans les lobes temporaux du cerveau. Le temps mis par le signal auditif pour voyager de l'oreille externe aux centres auditifs du cerveau est d'environ 10 millisecondes.

Comment fonctionne l'oreille humaine (dessin avec l'aimable autorisation de Siemens)

Perception sonore

L'oreille convertit séquentiellement les sons en vibrations mécaniques de la membrane tympanique et des osselets auditifs, puis en vibrations du fluide dans la cochlée, et enfin en impulsions électriques, qui sont transmises le long des voies du système auditif central aux lobes temporaux du cerveau. pour la reconnaissance et le traitement.
Le cerveau et les nœuds intermédiaires des voies auditives extraient non seulement des informations sur la hauteur et l'intensité du son, mais également d'autres caractéristiques du son, par exemple l'intervalle de temps entre les moments où le son est capté par la droite et la gauche. oreilles - c'est la base de la capacité d'une personne à déterminer la direction dans laquelle le son vient. Dans le même temps, le cerveau évalue séparément les informations reçues de chaque oreille et combine toutes les informations reçues en une seule sensation.

Notre cerveau stocke des modèles pour les sons qui nous entourent : voix familières, musique, sons dangereux, etc. Cela aide le cerveau dans le processus de traitement des informations sur le son pour distinguer rapidement les sons familiers des inconnus. Avec la perte auditive, le cerveau commence à recevoir des informations déformées (les sons deviennent plus silencieux), ce qui entraîne des erreurs dans l'interprétation des sons. D'autre part, les lésions cérébrales dues au vieillissement, aux traumatismes crâniens ou aux maladies et troubles neurologiques peuvent s'accompagner de symptômes similaires à ceux de la perte auditive, tels que l'inattention, le détachement de l'environnement et une réponse inadéquate. Pour entendre et comprendre correctement les sons, le travail coordonné de l'analyseur auditif et du cerveau est nécessaire. Ainsi, sans exagération, on peut dire qu'une personne n'entend pas avec ses oreilles, mais avec son cerveau !

Le système auditif humain est un mécanisme complexe et en même temps très intéressant. Pour imaginer plus clairement ce qu'est le son pour nous, nous devons comprendre quoi et comment nous entendons.

En anatomie, l'oreille humaine est généralement divisée en trois parties : l'oreille externe, l'oreille moyenne et l'oreille interne. L'oreille externe comprend le pavillon, qui aide à concentrer les vibrations sonores, et le conduit auditif externe. L'onde sonore, pénétrant dans l'oreillette, passe plus loin le long du conduit auditif (sa longueur est d'environ 3 cm et son diamètre est d'environ 0,5) et pénètre dans l'oreille moyenne, où elle frappe la membrane tympanique, qui est une fine membrane translucide. Le tympan convertit l'onde sonore en vibrations (renforçant l'effet d'une onde sonore faible et affaiblissant une forte). Ces vibrations sont transmises le long des os attachés au tympan - le marteau, l'enclume et l'étrier - à l'oreille interne, qui est un tube enroulé contenant un liquide d'environ 0,2 mm de diamètre et d'environ 4 cm de long.Ce tube s'appelle la cochlée. À l'intérieur de la cochlée se trouve une autre membrane appelée membrane basilaire, qui ressemble à une corde de 32 mm de long, le long de laquelle se trouvent des cellules sensibles (plus de 20 000 fibres). L'épaisseur de la corde au début de la cochlée et à son sommet est différente. Grâce à cette structure, la membrane entre en résonance avec ses différentes parties en réponse à des vibrations sonores de différentes hauteurs. Ainsi, le son à haute fréquence affecte les terminaisons nerveuses situées au début de la cochlée, et les vibrations sonores à basse fréquence affectent les terminaisons à son sommet. Le mécanisme de reconnaissance de la fréquence des vibrations sonores est assez compliqué. En général, il consiste à analyser l'emplacement des terminaisons nerveuses affectées, ainsi qu'à analyser la fréquence des impulsions entrant dans le cerveau à partir des terminaisons nerveuses.

Il existe toute une science qui étudie les caractéristiques psychologiques et physiologiques de la perception humaine du son. Cette science s'appelle psychoacoustique. Au cours des dernières décennies, la psychoacoustique est devenue l'une des branches les plus importantes dans le domaine de la technologie du son, puisque c'est principalement grâce aux connaissances dans le domaine de la psychoacoustique que les technologies du son modernes se sont développées. Regardons les faits les plus élémentaires établis par la psychoacoustique.

Le cerveau reçoit les principales informations sur les vibrations sonores dans la région jusqu'à 4 kHz. Ce fait s'avère assez logique, étant donné que tous les principaux sons vitaux pour une personne se situent dans cette bande spectrale, jusqu'à 4 kHz (voix d'autres personnes et d'animaux, bruit de l'eau, du vent, etc.). Les fréquences supérieures à 4 kHz ne sont qu'auxiliaires pour l'homme, ce qui est confirmé par de nombreuses expériences. En général, il est généralement admis que les basses fréquences sont "responsables" de l'intelligibilité, de la clarté des informations audio et que les hautes fréquences sont responsables de la qualité sonore subjective. L'aide auditive humaine est capable de distinguer les composantes de fréquence du son allant de 20-30 Hz à environ 20 kHz. La limite supérieure spécifiée peut varier en fonction de l'âge de l'auditeur et d'autres facteurs.

Dans le spectre sonore de la plupart des instruments de musique, on observe la composante de fréquence qui ressort le plus en amplitude. Ils l'appellent la fréquence fondamentale ou ton principal. La fréquence fondamentale est un paramètre sonore très important, et voici pourquoi. Pour les signaux périodiques, le système auditif humain est capable de distinguer la hauteur. Selon la définition de l'Organisation internationale de normalisation, terrain- c'est une caractéristique subjective qui distribue les sons sur une certaine échelle de bas en haut. La hauteur perçue est principalement influencée par la fréquence de hauteur (période), mais la forme générale de l'onde sonore et sa complexité (forme de période) peuvent également l'influencer. La hauteur peut être déterminée par le système auditif pour les signaux complexes, mais seulement si la tonalité fondamentale du signal est périodique(par exemple, dans le son d'un coup ou d'un coup de feu, le ton n'est pas périodique et, par conséquent, l'oreille n'est pas en mesure d'évaluer sa hauteur).

En général, selon les amplitudes des composantes du spectre, le son peut acquérir une couleur différente et être perçu comme Ton ou comment bruit. Si le spectre est discret (c'est-à-dire qu'il y a des pics clairement exprimés sur le graphique du spectre), alors le son est perçu comme une tonalité s'il y a un pic, ou comme consonance, en cas de présence de plusieurs pics prononcés. Si le son a un spectre continu, c'est-à-dire que les amplitudes des composantes de fréquence du spectre sont approximativement égales, alors à l'oreille un tel son est perçu comme du bruit. Pour illustrer un exemple illustratif, vous pouvez essayer de "fabriquer" expérimentalement diverses tonalités et harmonies musicales. Pour ce faire, il est nécessaire de connecter plusieurs générateurs de sons purs au haut-parleur via un additionneur ( oscillateurs). De plus, le faire de manière à ce qu'il soit possible d'ajuster l'amplitude et la fréquence de chaque son pur généré. À la suite du travail effectué, il sera possible de mélanger les signaux de tous les oscillateurs dans la proportion souhaitée et de créer ainsi des sons complètement différents. L'appareil appris sera le synthétiseur sonore le plus simple.

Une caractéristique très importante du système auditif humain est la capacité de distinguer deux tonalités avec des fréquences différentes. Des tests expérimentaux ont montré que dans la bande de 0 à 16 kHz, l'ouïe humaine est capable de distinguer jusqu'à 620 gradations de fréquence (selon l'intensité sonore), tandis qu'environ 140 gradations se situent dans la gamme de 0 à 500 Hz.

La perception de la hauteur des sons purs est également affectée par l'intensité et la durée du son. En particulier, un ton pur bas semblera encore plus bas si son intensité est augmentée. La situation inverse est observée avec un son pur à haute fréquence - l'augmentation de l'intensité du son rendra la hauteur perçue subjectivement encore plus élevée.

La durée du son affecte la hauteur perçue de manière critique. Ainsi, un son très court (moins de 15 ms) de n'importe quelle fréquence semblera à l'oreille un simple clic - l'oreille sera incapable de distinguer la hauteur d'un tel signal. La hauteur ne commence à être perçue qu'après 15 ms pour les fréquences dans la bande 1000 - 2000 Hz et seulement après 60 ms pour les fréquences inférieures à 500 Hz. Ce phénomène est appelé inertie de l'ouïe . L'inertie de l'ouïe est associée à la structure de la membrane basilaire. Les salves sonores de courte durée ne sont pas capables de faire résonner la membrane à la fréquence souhaitée, ce qui signifie que le cerveau ne reçoit pas d'informations sur la hauteur des sons très courts. Le temps minimum nécessaire pour reconnaître la hauteur dépend de la fréquence du signal audio, et plus précisément de la longueur d'onde. Plus la fréquence du son est élevée, plus la longueur d'onde de l'onde sonore est courte, ce qui signifie que les vibrations de la membrane basilaire sont "établies" plus rapidement.

Dans la nature, nous ne rencontrons presque jamais de tons purs. Le son de tout instrument de musique est complexe et se compose de nombreuses composantes de fréquence. Comme nous l'avons dit plus haut, même pour de tels sons, l'oreille est capable de régler la hauteur de leur son, en fonction de la fréquence du ton fondamental et/ou de ses harmoniques. Cependant, même avec la même hauteur, le son d'un violon, par exemple, diffère à l'oreille du son d'un piano à queue. Cela est dû au fait qu'en plus de la hauteur du son, l'oreille est également capable d'apprécier le caractère général, la couleur du son, sa timbre. timbre sonore C'est la qualité de la perception sonore qui, quelles que soient la fréquence et l'amplitude, permet de distinguer un son d'un autre. Le timbre du son dépend de la composition spectrale globale du son et de l'intensité des composantes spectrales, c'est-à-dire de la forme générale de l'onde sonore, et ne dépend en fait pas de la hauteur du ton fondamental. Le phénomène d'inertie du système auditif a une influence considérable sur le timbre du son. Cela se traduit par exemple par le fait qu'il faut environ 200 ms pour reconnaître un timbre à l'oreille.

L'intensité du son est l'un de ces concepts que nous utilisons tous les jours, sans penser à la signification physique qu'il porte. Volume sonore- c'est caractéristique psychologique perception du son, qui détermine la sensation de la force du son. L'intensité du son, bien que étroitement liée à l'intensité, augmente de manière disproportionnée à l'augmentation de l'intensité du signal sonore. Le volume est affecté par la fréquence et la durée du bip. Afin de juger correctement le lien entre la sensation sonore (son volume) et l'irritation (le niveau d'intensité sonore), il faut tenir compte du fait que l'évolution de la sensibilité de l'aide auditive humaine n'obéit pas exactement à la loi logarithmique .

Il existe plusieurs unités de mesure du volume sonore. La première unité est Contexte"(dans la désignation anglaise -" phon "). On dit que "le niveau d'intensité du son est n phon" si l'auditeur moyen juge le signal égal en intensité à une tonalité avec une fréquence de 1000 Hz et un niveau de pression de n dB. Le bruit de fond, comme le décibel, n'est pas une unité de mesure, mais une caractéristique subjective relative de l'intensité sonore. Sur la fig. 5 est un graphique avec des courbes d'égale sonie.

Chaque courbe du graphique montre un niveau sonore égal avec un point de départ à 1000 Hz. En d'autres termes, chaque ligne correspond à une certaine valeur d'intensité mesurée en phons. Par exemple, la ligne "10 phon" indique les niveaux de signal en dB à différentes fréquences, perçus par l'auditeur comme égaux en volume à un signal avec une fréquence de 1000 Hz et un niveau de 10 dB. Il est important de noter que les courbes données ne sont pas des références, mais sont données à titre d'exemple. Les études modernes montrent clairement que la forme des courbes dépend suffisamment des conditions de mesure, des caractéristiques acoustiques de la pièce, mais aussi du type de sources sonores (haut-parleurs, casque). Ainsi, il n'y a pas de graphique de référence des courbes d'égale sonie.

Un détail important de la perception du son par l'aide auditive humaine est ce que l'on appelle seuil auditif - l'intensité sonore minimale à laquelle commence la perception du signal. Comme nous l'avons vu, les niveaux d'intensité sonore humains égaux ne restent pas constants avec la fréquence. En d'autres termes, la sensibilité du système auditif dépend fortement à la fois de l'intensité du son et de sa fréquence. En particulier, le seuil d'audition n'est pas non plus le même à différentes fréquences. Par exemple, le seuil d'audition d'un signal à une fréquence d'environ 3 kHz est légèrement inférieur à 0 dB, et à une fréquence de 200 Hz, il est d'environ 15 dB. Au contraire, le seuil douloureux d'audibilité dépend peu de la fréquence et varie de 100 à 130 dB. Le graphique du seuil d'audition est illustré à la Fig. 6. Notez que puisque l'acuité auditive change avec l'âge, le graphique du seuil d'audibilité dans la bande de fréquence supérieure est différent pour différents âges.

Les composantes fréquentielles d'amplitude inférieure au seuil d'audibilité (c'est-à-dire celles sous le graphique du seuil d'audibilité) sont invisibles à l'oreille.

Intéressant et extrêmement important est le fait que le seuil d'audition du système auditif, ainsi que les courbes d'intensité sonore égale, ne sont pas constants dans différentes conditions. Les graphiques du seuil d'audition présentés ci-dessus sont valables pour le silence. Dans le cas de la réalisation d'expériences pour mesurer le seuil d'audition non pas dans un silence complet, mais, par exemple, dans une pièce bruyante ou en présence d'une sorte de bruit de fond constant, les graphiques se révéleront différents. Ceci, en général, n'est pas du tout surprenant. Après tout, marchant dans la rue et parlant avec un interlocuteur, nous sommes obligés d'interrompre notre conversation lorsqu'un camion passe à côté de nous, car le bruit du camion ne nous permet pas d'entendre l'interlocuteur. Cet effet est appelé masquage de fréquence . La raison de l'apparition de l'effet de masquage de fréquence est le schéma de perception du son par le système auditif. Un signal puissant d'amplitude d'une certaine fréquence f m provoque de fortes perturbations de la membrane basilaire dans certains de ses segments. Un signal proche en fréquence, mais plus faible en amplitude, avec une fréquence f n'est plus en mesure d'affecter les oscillations membranaires, et reste donc « inaperçu » des terminaisons nerveuses et du cerveau.

L'effet de masquage de fréquence est valable pour les composantes de fréquence présentes simultanément dans le spectre du signal. Cependant, du fait de l'inertie de l'ouïe, l'effet de masquage peut également s'étaler dans le temps. Ainsi, certaines composantes de fréquence peuvent masquer une autre composante de fréquence même lorsqu'elles apparaissent dans le spectre non pas en même temps, mais avec un certain retard dans le temps. Cet effet est appelé temporairesur et déguisement. Dans le cas où la tonalité de masquage apparaît plus tôt que celle masquée, l'effet est appelé poste de déguisement . Dans le cas où la tonalité de masquage apparaît plus tard que celle masquée (un tel cas est également possible), l'effet est appelé pré-camouflage.

2.5. Son spatial.

Une personne entend avec deux oreilles et, de ce fait, est capable de distinguer la direction d'arrivée des signaux sonores. Cette capacité du système auditif humain est appelée effet binaural . Le mécanisme de reconnaissance du sens d'arrivée des sons est complexe et, il faut bien le dire, on n'a pas encore mis fin à son étude et à ses modalités d'application.

Les oreilles humaines sont espacées à une certaine distance le long de la largeur de la tête. La vitesse de propagation d'une onde sonore est relativement faible. Un signal provenant d'une source sonore opposée à l'auditeur arrive dans les deux oreilles en même temps, et le cerveau interprète cela comme l'emplacement de la source du signal derrière ou devant, mais pas sur le côté. Si le signal provient d'une source déplacée par rapport au centre de la tête, alors le son arrive dans une oreille plus rapidement que dans l'autre, ce qui permet au cerveau de bien interpréter cela comme un signal venant de la gauche ou de la droite, voire approximativement déterminer l'angle d'arrivée. Numériquement, la différence de temps d'arrivée du signal dans l'oreille gauche et droite, qui est de 0 à 1 ms, décale la source sonore imaginaire vers l'oreille qui perçoit le signal plus tôt. Cette méthode de détermination de la direction d'arrivée du son est utilisée par le cerveau dans la bande de fréquence de 300 Hz à 1 kHz. La direction d'arrivée du son pour les fréquences supérieures à 1 kHz est déterminée par le cerveau humain en analysant le volume sonore. Le fait est que les ondes sonores d'une fréquence supérieure à 1 kHz s'atténuent rapidement dans l'espace aérien. Par conséquent, l'intensité des ondes sonores atteignant les oreilles gauche et droite de l'auditeur diffère tellement qu'elle permet au cerveau de déterminer la direction d'arrivée du signal par la différence d'amplitudes. Si le son est mieux entendu dans une oreille que dans l'autre, alors la source du son provient du côté de l'oreille où il est mieux entendu. Une aide importante pour déterminer la direction d'arrivée du son est la capacité d'une personne à tourner la tête vers la source apparente du son afin de vérifier l'exactitude de la définition. La capacité du cerveau à déterminer la direction d'arrivée du son par la différence de temps d'arrivée du signal dans les oreilles gauche et droite, ainsi qu'en analysant l'intensité du signal est utilisée dans stéréophonie.

Avec seulement deux sources sonores, il est possible de créer chez l'auditeur la sensation d'avoir une source sonore imaginaire entre deux physiques. De plus, cette source sonore imaginaire peut être « localisée » en tout point de la ligne reliant deux sources physiques. Pour ce faire, vous devez lire un enregistrement audio (par exemple, avec le son d'un piano) via les deux sources physiques, mais faites-le avec un certain délai. sur et le retard dans l'un d'eux et la différence de volume correspondante. En utilisant correctement l'effet décrit, en utilisant un enregistrement audio à deux canaux, vous pouvez transmettre à l'auditeur presque la même image sonore qu'il ressentirait s'il assistait personnellement, par exemple, à un concert. Un tel enregistrement à deux canaux est appelé stéréo. L'enregistrement monocanal est appelé monophonique.

En fait, pour un rendu de haute qualité d'un son spatial réaliste à l'auditeur, l'enregistrement stéréo conventionnel n'est pas toujours suffisant. La principale raison à cela réside dans le fait que le signal stéréo provenant de deux sources sonores physiques qui parvient à l'auditeur détermine l'emplacement des sources imaginaires uniquement dans le plan dans lequel se trouvent les sources sonores physiques réelles. Naturellement, il n'est pas possible « d'entourer l'auditeur de son ». Dans l'ensemble, pour la même raison, l'idée que le son surround est fourni par un système quadriphonique (quatre canaux) (deux sources devant l'auditeur et deux derrière lui) est également trompeuse. En général, en réalisant un enregistrement multicanal, on ne parvient à transmettre à l'auditeur que le son tel qu'il a été "entendu" par l'équipement de réception du son (micros) placé par nos soins, et rien de plus. Pour recréer un son plus ou moins réaliste, véritablement surround, ils recourent à l'utilisation d'approches fondamentalement différentes, qui reposent sur des techniques plus complexes qui modélisent les caractéristiques du système auditif humain, ainsi que les caractéristiques physiques et les effets de la transmission. de signaux sonores dans l'espace.

L'un de ces outils est l'utilisation de HRTF (Head Related Transfer Function). En utilisant cette méthode (en fait, une bibliothèque de fonctions), le signal audio peut être converti de manière spéciale et fournir un son surround assez réaliste, conçu pour être écouté même avec un casque.

L'essence de HRTF est l'accumulation d'une bibliothèque de fonctions qui décrivent le modèle psychophysique de la perception du son surround par le système auditif humain. Pour créer des bibliothèques HRTF, un mannequin artificiel KEMAR (Knowles Electronics Manikin for Auditory Research) ou une "oreille numérique" spéciale est utilisé. Dans le cas de l'utilisation d'un mannequin, l'essentiel des mesures est le suivant. Des microphones sont intégrés dans les oreilles du mannequin, à l'aide desquels l'enregistrement est effectué. Le son est reproduit par des sources situées autour du mannequin. En conséquence, l'enregistrement de chaque microphone est le son "entendu" par l'oreille correspondante du mannequin, en tenant compte de toutes les modifications que le son a subies sur le chemin de l'oreille (atténuation et distorsion dues à la flexion la tête et les réflexions de différentes parties de celle-ci). Le calcul des fonctions HRTF est effectué en tenant compte du son d'origine et du son "entendu" par le mannequin. En fait, les expériences elles-mêmes consistent à reproduire divers signaux sonores de test et réels, à les enregistrer à l'aide d'un mannequin et à les analyser plus avant. La base de fonctions ainsi accumulée permet alors de traiter n'importe quel son de sorte que lorsqu'il est joué au casque, l'auditeur ait l'impression que le son ne vient pas du casque, mais de quelque part dans l'espace environnant.

Ainsi, HRTF est un ensemble de transformations qu'un signal audio subit sur son chemin de la source sonore au système auditif humain. Une fois calculés empiriquement, les HRTF peuvent être appliqués au traitement du signal audio pour simuler les changements réels du son lorsqu'il se déplace de la source à l'auditeur. Malgré le succès de l'idée, HRTF a bien sûr ses côtés négatifs, mais en général, l'idée d'utiliser HRTF est assez réussie. L'utilisation de HRTF sous une forme ou une autre sous-tend de nombreuses technologies de son surround modernes, telles que QSound 3 D (Q3 D), EAX, Aureal3 D (A3 D) et autres.




L'échographie dans l'agriculture
L'échographie dans l'industrie alimentaire
L'échographie en biologie
Diagnostic échographique des maladies
Traitement par ultrasons des maladies
Sur terre et en mer

La totalité des sons audibles et inaudibles ressemble, en principe, au spectre des rayons du soleil, dans lequel il existe une région visible - du rouge au violet, et deux invisibles - infrarouge et ultraviolet. C'est par analogie avec le spectre solaire que les sons non perçus par l'oreille humaine ont été nommés : infrasons, ultrasons et hypersons.
La perception des sons par les gens est très individuelle. Chacun entend, pour ainsi dire, à sa manière. Les enfants, par exemple, entendent des sons de fréquence plus élevée que les personnes âgées.
Comme déjà mentionné, le son doit être considéré d'un point de vue objectif et subjectif. Le son en tant que phénomène subjectif est plus complexe et moins étudié que son essence physique objective.
Comment percevons-nous le son ?
L'oreille externe est constituée du pavillon et du conduit auditif qui le relie au tympan. La fonction principale de l'oreille externe est de déterminer la direction de la source sonore. Le conduit auditif, qui est un tube de deux centimètres de long effilé vers l'intérieur, protège les parties internes de l'oreille et agit comme un résonateur. Le conduit auditif se termine au niveau de la membrane tympanique, une membrane qui vibre sous l'action des ondes sonores. C'est ici, sur le bord externe de l'oreille moyenne, que se produit la transformation d'un son objectif en un son subjectif, c'est-à-dire une onde sonore en sa sensation subjective.
Directement derrière le tympan se trouvent trois petits os interconnectés : le marteau, l'enclume et l'étrier, à travers lesquels les vibrations sont transmises à l'oreille interne. Là, dans le nerf auditif, ils sont convertis en signaux bioélectriques. La petite cavité, où se trouvent le marteau, l'enclume et l'étrier, est remplie d'air et est reliée à la cavité buccale par la trompe d'Eustache. Grâce à ce dernier, la même pression est maintenue sur les faces interne et externe du tympan. Habituellement, la trompe d'Eustache est fermée et ne s'ouvre qu'avec un changement soudain de pression (lors du bâillement ou de la déglutition) pour l'égaliser. Si la trompe d'Eustache d'une personne est bloquée, par exemple à cause d'un rhume, la pression ne s'égalise pas et la personne ressent une douleur dans les oreilles.
Lorsque les vibrations sont transmises de la membrane tympanique à la fenêtre ovale, qui est le début de l'oreille interne, l'énergie du son d'origine est concentrée dans l'oreille moyenne. Cela se fait de deux manières, basées sur des principes bien connus de la mécanique. Premièrement, l'amplitude diminue, mais en même temps la puissance des oscillations augmente. Ici, vous pouvez faire une analogie avec un levier, lorsque, pour maintenir l'équilibre, une force plus petite est appliquée à une grande épaule et une grande à une plus petite. La précision avec laquelle une telle transformation est effectuée dans l'oreille humaine peut être vue du fait que l'amplitude des oscillations de la membrane tympanique est égale au diamètre d'un atome d'hydrogène (10 ~ 8 cm), tandis que le marteau, l'enclume et l'étrier le réduit d'un facteur trois. Deuxièmement, et de manière plus significative, la concentration du son est déterminée par la différence des diamètres de la membrane tympanique et de la fenêtre ovale de l'oreille interne.
La force agissant sur la membrane tympanique est égale au produit de la pression et de la surface de la membrane tympanique. Cette force à travers le marteau, l'enclume et l'étrier agit sur la fenêtre ovale, sur le côté opposé de laquelle se trouve un liquide. La surface de la fenêtre ovale est 15 à 30 fois plus petite que la surface de la membrane tympanique et, par conséquent, la pression exercée sur celle-ci est 15 à 30 fois supérieure. De plus (comme déjà mentionné, le marteau, l'enclume et l'étrier multiplient par trois la puissance d'oscillation), grâce à l'oreille moyenne, la pression sur la fenêtre ovale dépasse de près de 90 fois la pression initiale agissant sur le tympan. Ceci est très important, car les ondes sonores se propagent au-delà de 8 liquides. S'il n'y avait pas d'augmentation de pression, les ondes sonores ne pourraient pas pénétrer dans le liquide en raison de l'effet de réflexion. Le marteau, l'enclume et l'étrier ont de minuscules muscles qui protègent l'oreille interne des dommages lorsqu'ils sont exposés à des bruits forts. Des sons soudains et très intenses peuvent détruire ce mécanisme de défense et causer de graves dommages à l'oreille.
L'aide auditive humaine est un mécanisme inhabituellement complexe. Surtout dans la partie qui commence par la soi-disant fenêtre ovale - le seuil de l'oreille interne. Ici, les ondes sonores se propagent déjà dans le liquide (périlymphe) qui remplit la cochlée. Cet organe de l'oreille interne, qui ressemble vraiment à un escargot, mesure trois centimètres de long et est divisé en deux parties sur toute la longueur par un septum. Les ondes sonores qui frappent la fenêtre ovale de la cochlée atteignent le septum, le contournent puis se propagent presque au même endroit où elles ont d'abord touché le septum, mais de l'autre côté.
Le septum cochléaire est essentiellement constitué d'une membrane basilaire très fine et tendue près du foramen ovale mais qui devient épaisse et flasque près du foramen ovale.<хвосту>escargots. Les vibrations sonores créent des ondulations ondulantes à la surface de la membrane principale, tandis que les crêtes pour chaque fréquence donnée se situent dans des zones très spécifiques de la membrane. Les sons à haute fréquence créent un maximum d'oscillations dans la partie de la membrane principale où elle est la plus étirée, c'est-à-dire près de la fenêtre ovale, tandis que les sons à basse fréquence - sur la partie caudale de la cochlée, où la membrane principale est épaisse et lent. Ce mécanisme nous permet d'expliquer comment une personne alloue des tonalités de fréquences différentes.
Les vibrations mécaniques sont converties en vibrations électriques dans un organe spécial (l'organe de Corti), situé au-dessus de la partie supérieure de la membrane principale et représentant un ensemble de 23,5 mille<мясистых>cellules disposées le long de l'organe en quatre rangées. Au-dessus de l'organe de Corti se trouve une membrane tectoriale en forme de lambeau. Ces deux organes sont immergés dans l'endo-lymphe et séparés du reste de la cochlée par la membrane de Reissner. Les poils issus des cellules de l'organe de Corti pénètrent presque à la surface de la membrane tectoriale. La membrane principale, sur laquelle se trouve l'organe de Corti, ainsi que ses cellules velues, est, pour ainsi dire, suspendue de manière articulée à la membrane tectoriale. Lorsque la membrane principale est déformée, des contraintes tangentielles apparaissent entre elles, qui plient les poils reliant les deux membranes. Grâce à cette courbure, la transformation finale du son se produit - maintenant il est déjà codé sous forme de signaux électriques. Les courbures des poils jouent en quelque sorte le rôle de déclencheurs de réactions électrochimiques dans les cellules. Ils sont la source de signaux électriques.
Ce qui se passe ensuite avec le son et quelle forme il prend est toujours un mystère non résolu. Ce que l'on sait, c'est que le son est désormais codé en rafales d'activité électrique, car chaque cellule velue libère une impulsion électrique. La nature de ce code est également encore inconnue. Son déchiffrement est compliqué par le fait que les cellules poilues émettent des impulsions électriques même en l'absence de son. Ce n'est qu'en déchiffrant ce code qu'il sera possible de comprendre la véritable nature du son subjectif, de comprendre comment nous entendons ce que nous entendons.
Les principales caractéristiques physiques de tout mouvement oscillatoire sont la période et l'amplitude de l'oscillation et, par rapport au son, la fréquence et l'intensité des oscillations.
La période d'oscillation est le temps pendant lequel une oscillation complète se produit, lorsque, par exemple, un pendule oscillant se déplace de la position extrême gauche à l'extrême droite et revient à sa position d'origine.
La fréquence d'oscillation est le nombre d'oscillations complètes (périodes) en une seconde. Cette valeur dans le Système international d'unités est appelée hertz (Hz). La fréquence est l'une des principales caractéristiques par lesquelles nous distinguons les sons. Plus la fréquence d'oscillation est élevée, plus le son que nous entendons est aigu, c'est-à-dire que le son a une tonalité plus élevée.
Nous, les humains, avons accès à des sons limités par les limites de fréquence suivantes : pas inférieures à 15-20 hertz et pas supérieures à 16-20 mille hertz. En dessous de cette limite se trouvent les infrasons (moins de 15 hertz), et au-dessus - les ultrasons et les hypersons, c'est-à-dire 1,5-10 4 - 10 9 hertz et 10 9 -10 13 hertz, respectivement.
L'oreille humaine est la plus sensible aux sons d'une fréquence de 2000 à 5000 hertz. La plus grande acuité auditive est observée à l'âge de 15-20 ans. Puis l'ouïe s'aggrave. Chez une personne de moins de 40 ans, la sensibilité la plus élevée se situe dans la région de 3000 hertz, de 40 à 60 ans - 2000 hertz et de plus de 60 ans - 1000 hertz. Dans la plage allant jusqu'à 500 hertz, une personne fait la distinction entre une augmentation ou une diminution de la fréquence d'un seul hertz. À des fréquences plus élevées, les gens sont moins sensibles à ce léger changement de fréquence. Ainsi, par exemple, à une fréquence supérieure à 2000 hertz, l'oreille humaine n'est capable de distinguer un son d'un autre que lorsque la différence de fréquence est d'au moins 5 hertz. Si la différence est plus petite, les sons seront perçus comme identiques. Cependant, il n'y a pas de règles sans exceptions. Il y a des gens qui ont une ouïe exceptionnellement fine. Par exemple, un musicien doué peut réagir à un changement ne serait-ce que d'une fraction d'une seule vibration.
Le concept de longueur d'onde est associé à la période et à la fréquence. La longueur d'une onde sonore est la distance entre deux concentrations ou raréfactions successives du milieu. En prenant l'exemple des ondes se propageant à la surface de l'eau, il s'agit de la distance entre deux crêtes (ou creux).
Les sons peuvent différer les uns des autres et dans le timbre ?. Cela signifie que les mêmes sons de hauteur peuvent sembler différents, car la tonalité principale du son est généralement accompagnée de tonalités secondaires, qui sont toujours plus élevées en fréquence. Ils donnent au son principal une couleur supplémentaire et sont appelés harmoniques. En d'autres termes, le timbre est une caractéristique qualitative du son. Plus il y a d'harmoniques superposées à la tonalité fondamentale, plus<сочнее>son musical. Si le son principal est accompagné d'harmoniques proches de lui en hauteur, alors le son lui-même sera doux,<бархатным>. Lorsque les harmoniques sont significativement plus élevées que la fondamentale, il y a<металличность>dans le son ou la voix.
Les organes de l'ouïe, grâce à leur dispositif remarquable, distinguent facilement les caractéristiques d'une vibration d'une autre, la voix d'une personne proche ou familière des voix d'autres personnes. Par la façon dont une personne parle, nous jugeons son humeur, son état, ses expériences. Joie, douleur, colère, peur, peur du danger - tout cela peut être entendu sans même voir celui qui possède la voix.
La deuxième caractéristique principale est l'amplitude des oscillations. C'est le plus grand écart par rapport aux positions d'équilibre pour les vibrations harmoniques. Sur l'exemple d'un pendule, l'amplitude est son écart maximal de la position d'équilibre à la position extrême droite ou gauche. L'amplitude des oscillations, ainsi que la fréquence, déterminent l'intensité (force) du son. Lorsque les ondes sonores se propagent, les particules individuelles d'un milieu élastique sont successivement déplacées. Ce déplacement se transmet de particule à particule avec un certain retard dont la valeur dépend des propriétés inertielles du milieu. Le transfert des déplacements de particule à particule s'accompagne d'une modification de la distance entre ces particules, se traduisant par une variation de pression en chaque point du milieu.
Une onde acoustique transporte une certaine énergie dans le sens de son mouvement. Grâce à cela, nous entendons le son créé par une source située à une certaine distance de nous. Plus l'énergie acoustique atteint l'oreille humaine, plus le son est fort. La force du son, ou son intensité, est déterminée par la quantité d'énergie acoustique circulant en une seconde à travers une surface d'un centimètre carré. Par conséquent, l'intensité des ondes acoustiques dépend de l'amplitude de la pression acoustique créée par la source sonore dans le milieu, qui, à son tour, est déterminée par l'amplitude du déplacement des particules du milieu provoqué par la source. Dans l'eau, par exemple, même de très petits déplacements créent une grande intensité d'ondes sonores.
L'intensité des sons ordinaires perçus par l'oreille humaine est très faible. Une conversation bruyante, par exemple, correspond à une intensité sonore d'environ un milliardième de watt par centimètre carré. Mais comme la surface des deux conduits auditifs des oreilles d'une personne est approximativement égale à un centimètre carré, une personne perçoit une puissance d'un milliardième de watt comme un son assez fort. Si nous voulions faire bouillir une bouilloire d'eau en utilisant l'énergie de la parole sonore convertie en chaleur sans aucune perte, cela nécessiterait l'énergie d'une conversation forte et continue de tous les habitants de Moscou pendant la journée, alors que sur une cuisinière à gaz telle une la bouilloire bout pendant 10 minutes. Et la puissance qui serait obtenue avec le cri simultané de tous les peuples du globe serait la moitié de la puissance d'un moteur de voiture<Жигули>.
Le volume est lié à l'intensité du son. Plus l'intensité du son est grande, plus il est fort. Cependant, les notions de sonie et d'intensité ne sont pas équivalentes. L'intensité d'un son est une mesure de la force de la sensation auditive provoquée par un son. Un son de même intensité peut créer des perceptions auditives différentes chez différentes personnes. Ainsi, par exemple, des sons de même intensité mais de hauteur différente sont perçus par l'oreille avec une intensité différente selon les caractéristiques des perceptions auditives. Nous ne percevons pas à la fois les sons très faibles et très forts. Chaque personne a un soi-disant seuil d'audition, qui est défini comme l'intensité sonore la plus faible nécessaire pour qu'un son soit entendu.
Les sons les mieux perçus en termes de fréquence sont mieux distingués en termes de sonie. À une fréquence de 32 hertz, trois sons se distinguent par leur intensité, à une fréquence de 125 hertz - 94 sons et à une fréquence de 1000 hertz - 374. L'augmentation n'est pas illimitée. A partir d'une fréquence de 8000 hertz, le nombre de sons distinguables diminue en volume. À une fréquence de 16 000 hertz, une personne ne peut distinguer que 16 sons.
Une personne cesse d'entendre des sons de très haute intensité et les perçoit comme une sensation de pression ou de douleur. Cette force du son s'appelle le seuil de la douleur. Des études ont montré que l'intensité à laquelle les sons de différentes fréquences provoquent la douleur est différente. Si l'intensité du son est augmentée un million de fois, le volume n'augmente que quelques centaines de fois. Il s'est avéré que l'oreille convertit l'intensité du son en intensité selon une loi logarithmique complexe, protégeant ses parties internes des influences excessives.
Les sons les plus puissants auxquels la plupart des gens doivent faire face dans leur vie quotidienne provoquent soit une irritation, soit même de la douleur. oreilles. Mais si la puissance du son qui provoque une sensation douloureuse dans les oreilles est réduite de dix millions de fois, alors un tel son est suffisamment intense pour se propager dans l'air.
Une échelle logarithmique est utilisée pour mesurer notre perception subjective du son. Lorsque la puissance d'un son est 10 fois supérieure à la puissance d'un autre, alors on dit que l'intensité du premier son est de 10 décibels par rapport au second, 100 fois - 20 décibels, 1000 fois - 30 décibels, etc. Dans d'autres Autrement dit, à chaque fois que le rapport de puissance acoustique est augmenté d'un facteur 10, l'intensité sonore, exprimée en décibels, augmente de 10. Avec cette approche, on n'obtient pas une échelle absolue, mais seulement relative. Il est nécessaire de sélectionner en quelque sorte le niveau d'intensité zéro afin de compter à partir de celui-ci. Ce niveau a été choisi sur la base d'indicateurs subjectifs - il s'agit du seuil minimum de perception du son par l'oreille humaine, qui est de 10 ~ 12 watts par mètre carré. Un son 10 fois plus puissant a un niveau d'intensité de 10 décibels, un million de fois plus - 60 décibels, 10 millions de millions de fois plus douloureux - 130 décibels, ce qui correspond à 10 watts par mètre carré.
Il y a une autre caractéristique de l'ouïe humaine. Si un son de fréquence identique ou proche est ajouté à un son d'une certaine intensité, l'intensité totale sera inférieure à la somme mathématique des mêmes intensités. Des sons sonores simultanés, pour ainsi dire, se compensent ou se masquent. Et les sons dont la fréquence est éloignée ne s'affectent pas et leur volume est maximal. Les compositeurs utilisent ce modèle pour obtenir la plus grande puissance du son de l'orchestre.
Du point de vue de la perception des sons par les organes de l'ouïe, on peut les répartir principalement en trois catégories : bruit, musique, parole. Une telle division n'est pas seulement justifiée par notre habitude de classer les phénomènes et les objets. Le bruit, la musique et la parole sont différents domaines d'événements sonores qui contiennent des informations spécifiques à une personne. C'est pourquoi ils sont étudiés par différents spécialistes.
Le bruit est une combinaison non systématique d'un grand nombre de sons, lorsque tous ces sons se fondent en quelque chose de chaotique, de discordant. Chacun de nous connaît bien ce phénomène pas toujours agréable. Même lorsque nous, préoccupés par nos pensées, ne semblons pas remarquer le bruit, il a son effet sur nous, en règle générale, négativement. Une heure, une autre, et on sent que la tête commence à faire mal, la faiblesse apparaît.
Et parfois, il nous semble que tout cela se produit apparemment sans raison. Ce n'est que si le bruit nous interfère complètement, agit sur nous de manière irritante, que nous savons avec certitude que la tête en fait mal.
Aujourd'hui, les experts considèrent la lutte contre le bruit dans les villes et en particulier dans les entreprises industrielles comme l'un des problèmes les plus importants. Il ne s'agit bien sûr pas d'un silence absolu partout. Oui, c'est tout simplement et non réalisable dans les conditions d'une ville moderne et d'une production moderne. De plus, une personne ne peut pas vivre dans un silence absolu et ne s'y efforce jamais. Ce n'est pas un hasard si le silence des chambres acoustiques est l'une des épreuves les plus difficiles pour ceux qui se préparent aux vols spatiaux. Une personne qui a été dans un silence absolu pendant longtemps éprouve<информационный голод>ce qui peut entraîner des troubles mentaux. En un mot, le silence absolu prolongé est tout aussi préjudiciable au psychisme que l'augmentation ininterrompue du bruit. Ces deux états ne sont pas naturels pour une personne qui, au cours de millions d'années d'évolution, s'est adaptée à un certain bruit de fond - des sons divers et discrets de la nature.
Les observations de l'état de santé des travailleurs dans les ateliers bruyants ont montré que sous l'influence du bruit, la dynamique du système nerveux central et les fonctions du système nerveux autonome sont perturbées. En termes simples, le bruit peut augmenter la tension artérielle, accélérer ou ralentir le pouls, réduire l'acidité du suc gastrique, la circulation sanguine dans le cerveau, affaiblir la mémoire et réduire l'acuité auditive. Les travailleurs des industries bruyantes présentent un pourcentage plus élevé de maladies des systèmes nerveux et vasculaire et du tractus gastro-intestinal.
L'une des raisons des effets négatifs du bruit est que lorsque nous nous concentrons pour mieux entendre, nos aides auditives sont saturées. Une surcharge ponctuelle n'est pas terrible, mais quand on se surmène au jour le jour, d'année en année, ça ne passe pas sans laisser de trace.
La quantité et le type de bruit qu'une personne peut supporter dépendent de son âge. Les jeunes ont tendance à résister à plus de bruit que les personnes âgées, le rugissement d'un orchestre ou le chant strident qu'un adolescent aime peut complètement énerver une personne plus âgée. Comment les médecins et les acoustiques déterminent-ils les niveaux de bruit ? Pour mesurer l'intensité du son dans la perception auditive, on adopte l'échelle internationale d'intensité sonore, divisée en 13 bels, soit 130 décibels. Sur cette échelle, zéro correspond au seuil d'audition, 10 décibels - un chuchotement de faible volume, 20 décibels - un chuchotement de volume moyen, 40 décibels - une conversation calme, 50 décibels - une conversation de volume moyen, 70 décibels - le bruit d'une machine à écrire, 80 décibels - le bruit d'un moteur de camion en marche , 100 décibels - un signal de voiture fort à une distance de 5 à 7 mètres, 120 décibels - le bruit d'un tracteur en marche à une distance d'un mètre et, enfin , 130 décibels - le seuil de douleur, c'est-à-dire le seuil d'endurance de l'oreille. Il a été établi que les valeurs maximales qui ne semblent pas affecter le corps sont de 30 à 35 décibels, cependant, avec une exposition prolongée à un tel bruit chez des personnes pratiquement en bonne santé, cela peut donner<сбой>système nerveux, qui se traduit généralement par des troubles du sommeil.
Les médecins continuent constamment d'étudier l'impact du bruit sur la santé humaine. Par exemple, ils ont constaté que lorsque le bruit augmente, la libération d'adrénaline augmente. L'adrénaline, à son tour, affecte le fonctionnement du cœur et, en particulier, favorise la libération d'acides gras libres dans le sang. Pour ce faire, il suffit qu'une personne soit brièvement exposée à un bruit d'une intensité de 60 à 70 décibels. Un bruit supérieur à 90 décibels favorise une libération plus active de cortisone. Et cela, dans une certaine mesure, affaiblit la capacité du foie à combattre les substances nocives pour l'organisme, y compris celles qui contribuent à l'apparition du cancer.
Il s'est avéré que le bruit est également nocif pour la vision humaine. Cette conclusion a été atteinte par un groupe de médecins bulgares qui ont enquêté sur ce problème. Les spécialistes qui ont participé aux expériences ont passé plusieurs heures dans des cellules sombres, où le bruit du fonctionnement des machines et des mécanismes enregistrés sur bande était constamment diffusé. Dans le même temps, il a été constaté que l'activité de la rétine de l'œil, dont dépend le travail des nerfs optiques et, par conséquent, l'acuité visuelle, est sensiblement réduite. Ainsi, le bruit est un phénomène très défavorable pour une personne, il réduit considérablement la productivité du travail mental et physique. Il n'est pas possible d'énumérer toutes les sources de bruit d'origine humaine contre lesquelles une protection active est requise. Mais si nous gardons à l'esprit le bruit de la rue d'une grande ville moderne, sa source principale n'est pas si difficile à établir - il s'agit des transports, en particulier des grondements incessants, ou même simplement des voitures rugissantes. Dans certaines grandes villes du monde, le bruit diurne atteint 120 à 130 décibels. Il y a des villes d'Europe occidentale où, pendant plusieurs années, les habitants ne peuvent pas travailler le jour et dormir la nuit - des avions à réaction survolent en permanence leurs maisons.
La question se pose, est-il possible de faire face au bruit et comment ?
En Union soviétique, la lutte contre le bruit et l'amélioration des conditions acoustiques font l'objet d'une large attention. Il est généralement interdit aux aéronefs de survoler les villes. Les entreprises bruyantes sont soit isolées des zones résidentielles avec des espaces verts, soit elles essaient de les faire sortir des limites de la ville. Dans de nouvelles zones, de larges avenues sont en cours de construction, où les sons sont davantage absorbés, sans être réfléchis à plusieurs reprises par les murs des maisons. Dans les colonies, les signaux sonores de tous les types de transport sont interdits (des exceptions sont stipulées par le code de la route).
Les plantes sont un bon amortisseur de bruit. Les arbres et arbustes réduisent le bruit de 5, 10 et parfois 20 décibels. Bien sûr, l'efficacité des espaces verts dépend de leur disposition et des essences d'arbres. Bandes vertes efficaces entre le trottoir et la chaussée. Dans les rues larges avec un trafic important, il est recommandé de créer des allées de 10 à 12 mètres de large à côté des trottoirs. Il est préférable d'amortir le bruit du tilleul de la cible.
Les épicéas absorbent le bruit de la rue à tel point que les habitants des maisons situées derrière un tel éléphant de conifère se débarrassent presque complètement des bruits de rue gênants d'une grande ville.
Des spécialistes travaillant dans le laboratoire d'acoustique du bâtiment de l'Institut de recherche scientifique de Moscou pour la conception standard et expérimentale /MNIITEP/ ont proposé les soi-disant fenêtres anti-bruit pour les logements. Ils fournissent 44 décibels de réduction du bruit dans les appartements (généralement, une fenêtre ne réduit le bruit de la rue que d'environ 22 décibels). Les fenêtres sont équipées de vannes silencieuses, qui permettent un accès à l'air frais dans la pièce sans détérioration significative de la protection contre le bruit.
Dans les entreprises industrielles aussi, la lutte contre le bruit persiste. Pour cela, un équipement de protection individuelle est utilisé -<противошумы>et<антифоны>différentes conceptions, réduisant le niveau de bruit de haute qualité de 30 à 50 %. Un moyen plus efficace de réduire le bruit consiste à utiliser une variété de revêtements insonorisants et insonorisants.
Une bonne initiative dans la lutte contre le bruit a été prise à l'association cotonnière Yermolinsky. L'attaque contre les décibels a commencé ici il y a quelques années. Les employés de l'Institut de la santé au travail et des maladies professionnelles de l'Académie des sciences médicales de l'URSS ont suggéré d'utiliser des plaques suspendues insonorisantes - dans les coulisses. Beaucoup de travail a dû être fait par les hygiénistes et les ingénieurs pour rendre ces pièges acoustiques aussi efficaces que possible. Au début, par exemple, les murs étaient revêtus de dalles plates. Puis ils ont commencé à les faire ondulés, ce qui a donné un effet encore plus grand, ils ont trouvé la meilleure option pour placer les coulisses. Le résultat est évident - le niveau de bruit a été réduit de plus de moitié, la productivité du travail a augmenté et l'incidence des tisserands a diminué de 30 %. La variante Ermolinsky du contrôle du bruit a été adoptée par la filature de soie Rosa Luxembourg Moscow<Красная Роза>, capitale de l'usine de tissage<Красные текстильщики>, usine textile Ramensky, etc.
Une autre façon de lutter contre le bruit consiste à remplacer l'équipement physiquement usé et obsolète par un équipement plus avancé. Une réparation et une modernisation bien organisées et de haute qualité des équipements industriels et d'autres mesures peuvent également être appliquées.
Vous pouvez être sûr que le problème de la lutte contre le bruit industriel finira par être résolu, car cela est requis par les intérêts sociaux et économiques de la société.
La base normative et technique d'une solution globale à ce problème est la normalisation, une activité délibérée et systématique conçue pour réglementer strictement tous les facteurs qui génèrent d'une manière ou d'une autre du bruit et pour établir des méthodes et des méthodes de protection contre celui-ci. C'est exactement ce que font les spécialistes des pays - membres du Conseil d'assistance économique mutuelle, ils élaborent des normes de silence au travail et à la maison. En même temps, l'expérience accumulée dans tel ou tel pays, dans telle ou telle branche de l'économie nationale, est nécessairement prise en compte. Chaque norme CMEA est une synthèse de l'expérience et des réalisations scientifiques modernes et est entièrement orientée vers l'utilisation d'une ingénierie et d'une technologie de pointe.
Des spécialistes hongrois ont mis au point une norme<Допустимые уровни звукового давления в жилых и общественных зданиях>. Ce document établit un certain nombre de limites acoustiques grâce auxquelles la notion de silence acquiert une expression quantitative. Alors, par exemple ! mesures, le silence dans l'appartement, selon les médecins impliqués dans l'élaboration de la norme, est de 40 décibels le jour et de 30 décibels la nuit. A titre de comparaison: 25 décibels donnent le bruissement des feuilles dans un vent modéré, 30 décibels - le tic-tac d'une horloge à une distance de 1 mètre, 75-80 décibels - le bruit dans la rue d'une petite ville.
Des travaux sont en cours sur une norme qui établira1 les niveaux de bruit maximaux admissibles dans les lotissements, les aires de loisirs et les aires de jeux pour enfants. Les normes énoncées dans cette norme seront obligatoires pour les concepteurs et les constructeurs.
Bien sûr, afin de lutter efficacement contre le bruit ; il faut pouvoir le mesurer. Mais pas seulement cela, des méthodes uniformes de mesure et d'évaluation sont également nécessaires. C'est ce qu'est censé étayer la nouvelle norme CMEA pour les méthodes de mesure du bruit généré par les flux de circulation] dans les rues des grandes villes.
Le CMEA dispose d'une commission permanente avec le groupe de travail 1 sur la protection du travail, qui coordonne les travaux de normalisation menés dans les pays du CAEM. En 1976, des règlements techniques ont été approuvés pour limiter le bruit dans l'industrie textile, où l'on sait que le travail est majoritairement féminin.
Les moyens et méthodes de protection contre le bruit classent la norme élaborée par des spécialistes soviétiques.La norme contenant les exigences générales pour la méthode de mesure du bruit a été créée par des spécialistes de Tchécoslovaquie. Les spécialistes du GDR ont justifié la norme CMEA<Допустимые уро ни шума на рабочих местах>, selon laquelle le niveau sonore ne devrait désormais pas dépasser 85 décibels. Bien sûr, on est loin des conditions idéales dont rêvent les hygiénistes, néanmoins, réduire le bruit industriel à ce niveau dans toutes les entreprises sans exception conduirait à une amélioration significative des conditions de travail.
Les travaux de normalisation visant à lutter contre le bruit se poursuivent. Ainsi, la Commission permanente du CAEM a confié aux spécialistes de l'URSS l'élaboration d'un projet de programme à long terme visant à protéger globalement les personnes contre les effets nocifs du bruit.
Au mot<музыка>nous imaginons immédiatement un type d'art qui spécifiquement - à l'aide d'images artistiques sonores - reflète la réalité et affecte tout aussi spécifiquement les gens - leur psychisme et leurs émotions.
Nous sommes depuis longtemps habitués au fait que la musique est un monde diversifié de sons organisés de manière particulière, grâce auxquels elle est capable d'exprimer avec suffisamment de complétude les expériences émotionnelles des gens, leur état d'esprit. En même temps, on oublie en quelque sorte que toutes les caractéristiques établies et mesurées par les physiciens dans l'étude des sons en général lui sont applicables. Elles sont cependant applicables compte tenu de ses caractéristiques, c'est pourquoi elle fait l'objet d'études non pas de l'acoustique en général, mais de l'acoustique musicale, science née au croisement de l'acoustique, de la musicologie, de la psychologie et de la physiologie. Après tout, le langage musical est, pourrait-on dire, un son humanisé à la fois dans son origine et dans sa finalité.
Mais avec encore plus de droit, nous pouvons dire la même chose des sons qui composent notre langage, qui est inextricablement lié à la pensée, à la conscience.
Ainsi, le bruit, la musique, la parole sonore sont en quelque sorte les marches d'une échelle menant à de plus en plus d'organisation, d'ordre dans le monde des sons, à leur contenu informationnel toujours plus grand.

"Sons, ultrasons, infrasons"

Les cellules qui perçoivent les sons sont situées dans une capsule membraneuse - une cochlée, cachée dans les profondeurs du crâne. La cochlée est un tube en spirale rempli de liquide. Avec l'organe de l'équilibre - les trois canaux semi-circulaires - la cochlée forme ce qu'on appelle le labyrinthe. Le foramen ovale relie la cochlée à l'oreille moyenne, une cavité osseuse située dans le vestibule de la cochlée. Cette fenêtre est recouverte d'un mince film coriace. Il réagit à toutes les vibrations de l'air captées par l'oreillette et emprisonnées dans le conduit auditif externe. Parlons davantage de la façon dont cela se produit.

Premièrement, les vibrations de l'air font vibrer la membrane tympanique - la plaque la plus fine qui bloque le conduit auditif externe. De plus, la vibration est transmise par les minuscules osselets auditifs : le marteau, l'enclume et l'étrier. Ces os, comme un pont, s'étendaient le long de toute l'oreille moyenne, reliant le tympan à la cochlée. Il s'avère donc que le film recouvrant la fenêtre ovale réagit aux fluctuations de l'air. De plus, les vibrations sont transmises au fluide remplissant la cochlée. Les ondes qui le parcourent irritent les cellules auditives de l'oreille interne. Le cerveau capte ces stimuli et reconnaît les sons qu'ils contiennent. A ce qui a été dit, nous ajoutons la même chose que nous avons dite à propos de la vision. La nature nous a fourni deux oreilles, nous pouvons donc déterminer d'où vient le son. Ainsi, nous avons non seulement une vision spatiale, mais aussi une audition spatiale. Au même endroit, dans le labyrinthe, à côté de la cochlée, s'étiraient trois canaux semi-circulaires : horizontaux et deux verticaux, l'un courbé vers l'avant et l'autre vers le côté. Ainsi, les canaux sont situés dans trois plans mutuellement perpendiculaires. C'est l'appareil vestibulaire, ou l'organe de l'équilibre.

Les ondes sonores se propageant dans l'air parcourront un chemin complexe avant que nous les percevions. Premièrement, ils pénètrent dans l'oreillette et font vibrer la membrane tympanique, qui ferme le conduit auditif externe. Les osselets auditifs transportent ces vibrations jusqu'à la fenêtre ovale de l'oreille interne. Le film qui ferme la fenêtre transmet les vibrations du liquide remplissant la cochlée. Enfin, les vibrations atteignent les cellules auditives de l'oreille interne. Le cerveau perçoit ces signaux et reconnaît les bruits, les sons, la musique et la parole qu'ils contiennent.

Lorsqu'une personne change la position du corps, les canaux semi-circulaires - tubes arqués se déplacent également avec elle, tandis que le fluide qui les remplit est inertiel, il ne suit pas nos mouvements et, par conséquent, se déplace par rapport aux parois des canaux. Des cellules spéciales - les récepteurs surveillent le mouvement du fluide dans les canaux semi-circulaires. Ils rapportent tout ce qu'ils voient au cerveau, et celui-ci traite les informations reçues. Les cellules réceptrices de l'organe de l'équilibre sont immergées dans le liquide qui remplit l'oreille interne. Ils fixent tous ses mouvements et en informent le cervelet, qui collecte et compare tous ces messages. Après cela, tous les organes du corps reçoivent les informations nécessaires et diverses commandes, ce qui aide une personne à maintenir son équilibre. Les résultats sont immédiatement communiqués au gros cerveau.

L'organe de l'ouïe (cochlée) et l'organe de l'équilibre (labyrinthe) sont situés à proximité l'un de l'autre dans l'oreille interne. Dans la cochlée, un film mince - la membrane convertit les ondes sonores en mouvements ondulatoires du fluide. Les ondes fluides excitent les cellules auditives par un mécanisme complexe. Le labyrinthe, situé derrière l'escargot, capte tout mouvement d'une personne.

La voix de la mère, le chant des oiseaux, le bruissement des feuilles, le bruit des voitures, les coups de tonnerre, la musique... Une personne plonge littéralement dans l'océan des sons dès les premières minutes de la vie. Les sons nous font nous inquiéter, nous réjouir, nous inquiéter, nous remplissent de paix ou de peur. Mais tout cela n'est rien de plus que des vibrations de l'air, des ondes sonores qui, traversant le conduit auditif externe jusqu'au tympan, le font vibrer. Grâce au système d'osselets auditifs situés dans l'oreille moyenne (marteau, enclume et étrier), les vibrations sonores sont transmises plus loin à l'oreille interne, qui a la forme d'une coquille d'escargot.

L'escargot est un système hydromécanique complexe. Il s'agit d'un tube osseux à paroi mince de forme conique, tordu en spirale. La cavité du tube est remplie de liquide et est divisée sur toute la longueur par une cloison multicouche spéciale. L'une des couches de cette cloison est la membrane dite basilaire, sur laquelle se trouve le véritable appareil récepteur, l'organe de Corti. Dans les cellules ciliées réceptrices (leur surface est recouverte des plus petites excroissances protoplasmiques sous forme de poils), un processus étonnant, pas encore entièrement compris, de conversion de l'énergie physique des vibrations sonores en excitation de ces cellules a lieu. De plus, des informations sur le son sous forme d'influx nerveux le long des fibres du nerf auditif, dont les terminaisons sensibles se rapprochent des cellules ciliées, sont transmises aux centres auditifs du cerveau.

Il existe un autre moyen par lequel le son, contournant l'oreille externe et moyenne, atteint la cochlée - directement à travers les os du crâne. Mais l'intensité du son perçu dans ce cas est bien moindre qu'avec la conduction sonore aérienne (ceci est en partie dû au fait que lors du passage à travers les os du crâne, l'énergie des vibrations sonores se désintègre). Par conséquent, la valeur de la conduction osseuse chez une personne en bonne santé est relativement faible.

Cependant, la capacité de percevoir les sons d'une double manière est utilisée dans le diagnostic de la déficience auditive: si, au cours de l'examen, il s'avère que la perception des sons par conduction sonore aérienne est altérée et que la conduction sonore osseuse est complètement préservée, le médecin peut conclure que seul l'appareil conducteur du son de l'oreille moyenne a souffert, tandis que l'escargot de l'appareil récepteur du son n'est pas endommagé. Dans ce cas, la conduction sonore osseuse s'avère être une sorte de "baguette magique": le patient peut utiliser une prothèse auditive, à partir de laquelle les vibrations sonores sont transmises directement à travers les os du crâne à l'organe de Corti.

La cochlée non seulement perçoit le son et le transforme en énergie d'excitation des cellules réceptrices, mais, non moins importante, elle effectue les premières étapes de l'analyse des vibrations sonores, en particulier l'analyse de fréquence.

Une telle analyse peut être effectuée à l'aide d'appareils techniques - analyseurs de fréquence. L'escargot le fait beaucoup plus rapidement et, bien sûr, sur une "base technique" différente.

Le long du canal de la cochlée, dans le sens allant de la fenêtre ovale à son "sommet", la largeur du septum augmente progressivement et sa rigidité diminue. Par conséquent, différentes sections du septum résonnent à des sons de fréquences différentes : sous l'action de hautes -les sons de fréquence, l'amplitude maximale des oscillations est observée à la base de la cochlée, près de la fenêtre ovale, et les sons de basse fréquence correspondent à la zone de résonance maximale au sommet. Les sons d'une certaine fréquence ont leur représentation prédominante dans un certaine partie du septum cochléaire et, par conséquent, n'affectent que les fibres nerveuses associées aux cellules ciliées de la région excitée de l'organe de Corti.Par conséquent, chaque fibre nerveuse répond à une plage de fréquences limitée ; cette méthode d'analyse est appelée spatiale, ou selon le principe de lieu.

En plus du spatial, il y a aussi un temporel, lorsque la fréquence sonore se reproduit à la fois dans la réaction des cellules réceptrices et, dans une certaine limite, dans la réaction des fibres du nerf auditif. Il s'est avéré que les cellules ciliées ont les propriétés d'un microphone : elles convertissent l'énergie des vibrations sonores en vibrations électriques de même fréquence (ce que l'on appelle l'effet de microphone cochléaire). On suppose qu'il existe deux façons de transmettre l'excitation de la cellule ciliée à la fibre nerveuse. La première est électrique, lorsque le courant électrique résultant de l'effet micro provoque directement l'excitation de la fibre nerveuse. Et le second, chimique, lorsque l'excitation de la cellule ciliée est transmise à la fibre à l'aide d'une substance émettrice, c'est-à-dire d'un médiateur. Les méthodes d'analyse temporelle et spatiale fournissent ensemble une bonne distinction entre les sons en fréquence.

Ainsi, les informations sur le son sont transmises à la fibre du nerf auditif, mais elles n'atteignent pas immédiatement le centre auditif supérieur, situé dans le lobe temporal du cortex cérébral. La partie centrale, située dans le cerveau, du système auditif se compose de plusieurs centres, dont chacun possède des centaines de milliers et des millions de neurones. Dans ces centres, il existe une sorte de hiérarchie et, lors du déplacement du bas vers le haut, la réaction des neurones au son change.

Aux niveaux inférieurs de la partie centrale du système auditif, dans les centres auditifs du bulbe rachidien, la réponse impulsionnelle des neurones au son reflète bien ses propriétés physiques : la durée de la réaction correspond exactement à la durée du signal ; plus l'intensité du son est grande, plus le nombre et la fréquence des impulsions sont importants (jusqu'à une certaine limite) et plus le nombre de neurones impliqués dans la réaction est important, etc.

Lors du déplacement des centres auditifs inférieurs vers les centres supérieurs, l'activité impulsionnelle des neurones diminue progressivement mais régulièrement. Il semble que les neurones qui composent le sommet de la hiérarchie travaillent beaucoup moins que les neurones des centres inférieurs.

Et en effet, si l'analyseur auditif supérieur est retiré d'un animal expérimental, ni la sensibilité auditive absolue, c'est-à-dire la capacité de détecter des sons extrêmement faibles, ni la capacité de distinguer les sons par fréquence, intensité et durée, ne sont presque pas perturbées.

Quel est alors le rôle des centres supérieurs du système auditif ?

Il s'avère que les neurones des centres auditifs supérieurs, contrairement aux centres inférieurs, fonctionnent selon le principe de sélectivité, c'est-à-dire qu'ils ne réagissent qu'aux sons dotés de certaines propriétés. Dans le même temps, il est caractéristique qu'ils ne puissent répondre qu'à des sons complexes, par exemple à des sons dont la fréquence change dans le temps, à des sons en mouvement ou uniquement à des mots et des sons de la parole individuels. Ces faits permettent de parler d'une réaction sélective spécialisée des neurones des centres auditifs supérieurs aux signaux sonores complexes.

Et c'est très important. Après tout, la réaction sélective de ces neurones se manifeste par rapport à de tels sons qui ont une valeur biologique. Pour une personne, ce sont principalement les sons de la parole. Un son biologiquement important, pour ainsi dire, est extrait d'une avalanche de sons environnants et est détecté par des neurones spécialisés même à sa très faible intensité et sur la ligne d'interférence sonore. C'est grâce à cela que l'on peut distinguer, par exemple, dans le rugissement d'un atelier de laminage d'acier, les paroles prononcées par l'interlocuteur.

Des neurones spécialisés détectent leur son même si ses propriétés physiques changent. Tout mot prononcé par une voix masculine, féminine ou enfantine, à haute ou basse voix, rapidement ou lentement, est toujours perçu comme un seul et même mot.

Les scientifiques se sont intéressés à la question de savoir comment la haute sélectivité des neurones des centres supérieurs est obtenue. On sait que les neurones sont capables de répondre à la stimulation non seulement par excitation, c'est-à-dire par le flux d'influx nerveux, mais également par inhibition - suppression de la capacité à générer des impulsions. En raison du processus d'inhibition, la gamme de signaux auxquels le neurone donne une réponse d'excitation est limitée. Il est caractéristique que les processus inhibiteurs soient particulièrement bien exprimés précisément dans les centres supérieurs du système auditif. Comme on le sait, les processus d'inhibition et d'excitation nécessitent une dépense d'énergie. Par conséquent, on ne peut pas supposer que les neurones des centres supérieurs sont inactifs ; ils travaillent intensément, seul leur travail est différent de celui des neurones des centres auditifs inférieurs.

Et qu'arrive-t-il aux flux d'influx nerveux provenant des centres auditifs inférieurs ? Comment cette information est-elle utilisée si les centres supérieurs la rejettent ?

Premièrement, toutes les informations ne sont pas rejetées, mais seulement une partie d'entre elles. Deuxièmement, les impulsions des centres inférieurs ne vont pas seulement aux centres supérieurs, elles vont également aux centres moteurs du cerveau et aux systèmes dits non spécifiques qui sont directement liés à l'organisation de divers éléments du comportement (posture, mouvement, attention) et états émotionnels (contact, agressivité). Ces systèmes cérébraux exercent leurs activités sur la base de l'intégration des informations sur le monde extérieur qui leur parviennent par différents canaux sensoriels.

Il s'agit, en termes généraux, d'une image complexe et loin d'être entièrement comprise du fonctionnement du système auditif. Aujourd'hui, on en sait beaucoup sur les processus qui se produisent lors de la perception des sons, et, comme vous pouvez le voir, les experts peuvent largement répondre à la question posée dans le titre, "Comment entend-on ?". Mais il est encore impossible d'expliquer pourquoi certains sons nous sont agréables, tandis que d'autres sont désagréables, pourquoi une seule et même musique est agréable à une personne et pas à une autre, pourquoi certaines propriétés physiques des sons de la parole sont perçues par nous comme des intonations amicales , tandis que d'autres aussi grossiers. Ces problèmes et d'autres sont résolus par des chercheurs dans l'un des domaines les plus intéressants de la physiologie

Y. Altman, E. Radionova, docteur en sciences médicales, docteur en sciences biologiques