Arsonor Créez et finalisez votre musique en home studio de manière professionnelle

Comment éduquer l’oreille à l’art du mixage (Part 3)

éduquer oreilles ingénieur son à l'art du mixage

Suite et fin ici des trois articles présentant une introduction à l’écoute du son et l’art du mixage. Après les dimensions fréquentielles et dynamiques du sonla spatialisation est le troisième domaine capital dans un mixage. Il est en effet très important de comprendre les paramètres qui entrent en jeu dans la perception et la cohérence de l’espace sonore. Ensuite, je te présenterai brièvement en quoi les trois domaines (fréquentiel, dynamique et spatial) sont intimement liés. Car l’analyse de tout objet sonore ne peut se faire sur base d’un seul paramètre pris individuellement. Par exemple, écoutes les deux extraits audio qui suivent:

A ton avis, quelles différences as-tu noté entre les deux? 

Tu vas sûrement me répondre, à raison, que l’un est plus fort que l’autre. En effet, c’est la réponse si on analyse ce son d’un point de vue dynamique.

D’un point de vue de l’espace sonore, on pourrait dire aussi que l’un est plus éloigné que l’autre.

Et qu’en est-il des fréquences?

Si tu possèdes déjà une écoute attentive, tu remarqueras une présence bien plus importante en fréquences graves dans le son qui est plus fort!

On voit déjà ici dans un exemple simple ce qui peut influencer le paramètre de profondeur dans un mixage. Tout cela relève de la psycho-acoustique. Et c’est ce qui fait tout l’art du mixage, qui est un processus très technique et complexe.

L'espace sonore

En mixage, on va vouloir souvent imaginer les instruments placés dans l’espace; chacun à leur place, comme si un groupe jouait en concert sur une scène. On peut visualiser ces instruments de la gauche vers la droite (l’image Stereo) et sur le devant jusqu’au fond en arrière (la profondeur).

La localisation des sons par notre cerveau

Sans rentrer dans les détails ici, il faut savoir que le contenu sonore (en intensité, en temps et en fréquence) arrivant à nos oreilles est différent entre l’oreille droite et l’oreille gauche. Ces différences (avec en plus la forme de nos oreilles) sont analysées par le cerveau.
Le trajet entre les deux oreilles sera différent en temps (ou phase), en niveau et en fréquence (dû à l’obstacle de la tête pour le trajet vers l’oreille gauche).
C’est l’analyse de ces données par le cerveau qui nous permet de localiser les sons (Gauche-Droite, Haut-Bas, Devant-Derrière). Elle nous permet mentalement de calculer et construire un espace sonore; de savoir en fermant les yeux, si un chien aboie chez le voisin ou s’il est juste devant nous par exemple.

Du mono vers la stéréo

Historiquement, il faut savoir que pendant longtemps (jusque dans les années 60), la musique s’enregistrait en Mono avec un seul micro pour capter l’ensemble des instruments. L’instrument le plus fort dominait alors le tout.

Puis arriva la stéréophonie et le début des expérimentations des sons dans l’espace. En écoutant de vieux enregistrements de Jazz ou des Beatles, on tombe souvent sur des morceaux qui peuvent paraître loufoques aujourd’hui. A l’époque où on utilisait un enregistreur 2 pistes (voire 4 pistes pour la haute technologie), le placement des instruments dans l’espace était encore expérimental. D’ailleurs, il s’agissait d’un simple placement en sources réelles. A l’inverse de la vraie stéréo où notre cerveau a les informations pour recalculer un espace sonore cohérent (sources virtuelles).

Un exemple d’enregistrement des Beatles: on entend la partie rythmique clairement à gauche et la voix principale, le violoncelle et le tambourin sur la droite.
Le domaine de la reproduction audio s’est peu à peu standardisé vers le format Stéréo. Même si aujourd’hui, des formats Surround avec le son en 3D sont très répandus, le format Stéréo (une enceinte à gauche et à droite) reste LE standard d’écoute en musique. Car il simule le mieux notre écoute naturelle avec nos deux oreilles captant une scène sonore devant nos yeux. Ceci dit, tu serais surpris par le nombre impressionnant de situations où tu écoutes encore la musique en Mono: la télé, la radio mais aussi en club! et tout ce qui se rapporte à l’évènementiel ont des systèmes monophoniques.

Mais quelle est la différence entre mono et stéréo?

C’est tout simplement qu’un signal Mono ne sera véhiculé que par un seul canal audio (signal capté par un seul micro, une entrée dans la carte son). Cela veut dire que le son sortant sur les deux enceintes sera exactement le même sur l’enceinte de gauche et celle de droite (si on veut pinailler un peu plus, le vrai Mono devra être écouté sur une seule enceinte et pas deux!).
art du mixage
Forme d'onde Mono
Le signal Stéréo (capté par deux micros ou un micro Stéréo) utilise deux canaux audio de la carte son. De subtiles différences existent alors en sortie entre l’audio de l’enceinte de gauche et celui de l’enceinte de droite.
art du mixage
Forme d'onde Stéréo
Ce sont ces différences qui apportent à l’oreille cette sensation de “largeur stéréo”, un son moins centré et plus ‘”aéré”. De plus en plus d’appareils audio et de plugins te permettent de “switcher” en appuyant sur un bouton (Mono) entre un morceau en stéréo et sa version Mono. Le fait de passer en Mono supprime alors ces “différences”. Il est d’ailleurs important en mixage de vérifier ce que l’on appelle la compatibilité Mono car il est possible que l’annulation de ces “différences” endommage la version Mono du morceau (des sonorités ou instruments pouvant carrément disparaître! Mais je m’égare, je reviendrai en détail sur tout cela plus tard).

Ecoutes la différence de largeur entre le fichier Mono et le même en Stéréo (Appuis sur Play et Switches entre les boutons Stéréo est Mono, écoutes au casque si possible):

Le signal peut être aussi (très souvent) Mono en entrée puis mixé en Stéréo en sortie (sur les enceintes). C’est le principe du mixage audio dans l’espace où la grande majorité des pistes en entrée sont enregistrées en Mono, puis sont routées vers la piste Master en Stéréo. L’outil principal qui va permettre de “placer” nos différents éléments audio mono dans l’espace stéréo s’appelle le Panoramique (ou Pan plus simplement).
Contrôle du Panoramique

 

 

 

Vue d’une piste du mixeur Pro Tools avec le réglage du Pan au-dessus du Fader

Ce n’est en fait rien d’autre qu’un réglage de gain (niveau sonore) entre la sortie gauche ou droite.

 

La réverbération

Un autre point important concerne l’interaction des ondes sonores avec les obstacles et notamment les réflexions. Là encore, notre cerveau sait immédiatement si on se trouve dans une pièce normale, une salle de bain, une cathédrale ou une forêt.

Un son émis dans un environnement particulier, de par sa texture, sa nature et de sa taille approximative, engendre un motif unique de diverses réflexions. Ce motif propre à cet endroit donne une couleur sonore que l’on appelle réverbération (ou reverb).

Dans l’audio sans reverb appliquée, les 3 éléments sont sur le même plan sonore tout devant. Sur l’extrait avec la reverb, tu peux remarquer qu’elle est appliquée sur le shaker et les percus ce qui donne 3 plans sonores différents.

En mixage musical, les évolutions technologiques en audio ont rapidement permis d’ajouter cette dimension d’espace à la musique grâce à des outils simulant une reverb. D’abord avec des reverbs analogiques jusqu’aux reverbs sous forme de plugins numériques.
Exemple de plugin de reverb de chez Lexicon
Un autre outil très utilisé en mixage audio est le Delay. Il permet d’ajouter au son une succession de répétitions du même son dans l’espace, similaire à des échos. L’écho est un cas particulier du delay avec un temps de répétition du son bien précis. Quant à la reverb, elle n’est au fond rien d’autre qu’un grand nombre d’échos distincts qui se mélangent tellement qu’on ne les distingue plus séparément.

Ces sont ces deux outils principalement (Delay et Reverb) qui permettent de donner une dimension d’espace au son; de faire passer un son Mono vers un son en Stéréo et dans la profondeur.

Récapitulatif des trois domaines du son

Voici une synthèse de ce qui a été dit depuis les deux derniers articles concernant les trois domaines du son et leur application en mixage audio:

Mesure physique: Fréquence en Hz

Perception subjective: Pitch, “couleur” sonore

Outil de traitement: EQ

Mesure physique: Intensité en dB

Perception subjective: Loudness

Outil de traitement: Fader, Compresseur/Gate/Limiteur…

Mesure physique:  Temps de reverb en sec

                               Temps de delay en ms

                               Corrélateur de phase

Perception subjective: “Largeur stéréo”, espace réaliste/artificiel

Outil de traitement: Pan, Delay, Reverb

Art du mixage et psycho-acoustique

A ce stade du raisonnement, tu es en droit de te dire: “Ah OK! Donc si je veux que les guitares de mon morceau jouent plus fort, il me suffit de lever le fader ou d’appliquer un compresseur et basta!”

Seulement voilà: la réalité est toute autre. Ce n’est pas aussi simple que cela.

Augmenter le volume perçu des guitares n’est pas sans conséquences sur le reste des éléments du mix (la voix notamment), mais aussi sur les guitares elle-mêmes et leur contenu fréquentiel ou leur placement dans l’espace!

D’une part, on a vu que le son peut être décrit physiquement grâce à des appareils pouvant mesurer un paramètre à la fois, de manière très précise. Mais d’un autre côté, il y a nos oreilles et l’analyse du son par notre cerveau qui elle, est bien plus complexe. Cette analyse des phénomènes sonores s’appelle la psycho-acoustique.

D’autre part, comme je l’ai dit en introduction, il est primordial en mixage audio de savoir que ces trois domaines du son sont intimement interconnectés.

Sur l’effet de profondeur par exemple: on a déjà pu constater que plusieurs paramètres entrent en jeu et agissent en même temps. Un son plus éloigné sera moins fort, mais aussi contiendra moins de fréquences dans l’extrême grave et aigue, ou encore la proportion de son réverbéré sera plus importante que celle de son direct. Tu auras aussi constaté que lorsque tu t’éloignes d’un endroit  avec de la musique (un club, une salle de concert), les sons graves prédominent par rapport au reste. En effet, à la même intensité, les sons aigus portent moins loin que les sons graves.

L’intensité, la hauteur, la durée et l’espace sonore sont des variables qui ne sont pas “étanches” les unes par rapport aux autres: le fait même d’en modifier une, se répercute sur l’autre soit de façon réelle c’est-à-dire évaluable physiquement ou subjective c’est-à-dire perceptible à l’oreille donc à travers le décodage du cerveau. La somme de toutes ces quantités psycho-acoustiques va être évaluée et rassemblée par notre cerveau.

Et la conséquence de tous ces phénomènes sur le son aura une importance capitale dans ta façon de mixer la musique. Tu ne seras jamais un mixeur assez compétent si tu n’as pas la connaissance des courbes de Fletcher & Munson ou comment éviter un filtrage en peigne!

Pas de panique! Toutes ces nouvelles notions seront bien sûr abordées ultérieurement.

Conclusion: entraîner son oreille à la perception du son

Si tu me lis jusqu’ici, c’est que tu t’approches du point final de ces trois articles.

Félicitations! Mais ce n’est qu’un début!Party smile

Tu sais maintenant ce qui te reste à explorer afin de devenir un as de la production et du mixage audio Nerd smile

Les trois domaines abordés ici ne sont qu’une succincte introduction à l’analyse audio d’un morceau de musique. Le mixage est un art que l’on ne maîtrise qu’après de longues années d’expérience et d’écoute. Et c’est cette écoute que tu peux dors et déjà commencer à développer.
Ecoute et Enregistrement des sons environnants

Mais ce que je te propose tout de suite, c’est d’entraîner ton écoute de deux manières différentes:

– par l’écoute passive

L’entraînement à l’écoute passive peut se faire à tout moment (se sensibiliser à l’acoustique d’un endroit particulier, tester la reverb dans un hangar en tapant des mains ou divers objets, reconnaître les effets utilisés pendant un concert, …). L’écoute passive doit être une activité permanente. Titiller les connections dans ton oreille/cerveau régulièrement va accroître ton habileté à détecter de fines différences sonores. En écoutant attentivement les sons quotidiens autour de toi, tu trouveras par toi-même des parallèles avec divers aspects de la production musicale.

– par l’écoute active

Elle intervient pendant que tes mains ont un contrôle sur le son (sur un outil d’égalisation ou un compresseur par exemple). Il ne s’agit pas de se contenter d’écouter des tonalités ou du bruit mais de savoir quoi écouter dans un mix, sur quel son se focaliser en terme de dynamique ou de fréquence.

C’est impressionnant à quelle vitesse tu vas développer ton écoute critique et détecter le moindre changement de sonorité. Ce sont des exercices bénéfiques à long terme sur tes productions.

Catégories
Bienvenue sur Arsonor!

Tu cherches à maîtriser les outils modernes de la production musicale, traiter ton son comme il le mérite, en finir avec les blocages et finaliser tes morceaux une bonne fois pour toute?

Tu es au bon endroit! Je m’appelle Martin, et je partage avec toi toutes mes connaissances et expérience en ingénierie du son.

De nos jours, il est possible de faire (presque) tout depuis chez soi! Avec les bonnes connaissances, de l’abnégation et de la passion, je suis convaincu que la création musicale est accessible à tous. Je suis prêt à partager ici avec le plus de pédagogie possible, tous les conseils et astuces qui te seront d’une aide précieuse pour arriver à tes fins.

Partager l'article:
  •  
  •  
  •  
  • 1
  •  

0 Replies to “Comment éduquer l’oreille à l’art du mixage (Part 3)”

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée.