Avertissement : cet article va contenir de sérieuses théories.
Ah oui, le grand mot effrayant “T”. Le fléau de l’existence de nombreux musiciens. Nous voulons simplement faire de la musique, entrer dans le studio et travailler sur notre prochain chef-d’œuvre sans avoir à nous soucier de concepts tels que les bandes de fréquences, les changements de tonalité ou le débit binaire.
Mais à moins de vouloir payer pour que d’autres fassent le travail à notre place – ce qui, je dois le dire, n’est pas nécessairement une mauvaise stratégie – ce sont des ponts que nous devons tout simplement traverser. Les brûler serait satisfaisant, mais finalement handicapant dans votre parcours pour devenir le prochain *insérer un auteur-compositeur influent ici*.
Si le DAW et vos instruments seront toujours la base sur laquelle vous construirez votre studio de musique, les effets audio – qu’ils soient natifs du logiciel de votre station de travail ou qu’il s’agisse de plugins tiers – peuvent être un couteau suisse permettant d’obtenir des sons et des manipulations audio autrement inaccessibles, s’ils sont utilisés de manière responsable.
En apprenant à connaître certains des principaux effets audio, leurs objectifs et leurs utilisations potentielles, vous vous donnez une meilleure base de lancement à partir de laquelle vous pouvez faire décoller les productions de votre home studio.
Que vous souhaitiez simplement apprendre à mixer votre propre musique, plonger dans le vaste monde des VST pour améliorer la boîte à outils de votre studio ou que vous soyez purement intéressé par la théorie qui se cache derrière – sûrement pas ! – j’espère sincèrement que cet article vous mettra sur la bonne voie pour atteindre vos objectifs.
Je ne suis pas un ingénieur professionnel et je ne prétends pas que cet article vous fera passer du statut de novice à celui de maître de la production, mais j’espère qu’il vous donnera un aperçu facile à comprendre des effets audio les plus couramment utilisés.
Avec ces connaissances, vous pouvez commencer à les appliquer à vos propres créations, en apprenant par la pratique et l’application, et devenir lentement un ingénieur du son assez compétent, à l’aise avec l’utilisation de la plupart des effets audio génériques sur ses pistes.
Bien sûr, pour un tutoriel de mixage plus approfondi, il existe littéralement des centaines de livres sur le sujet qui donneront le coup d’envoi de la campagne de votre studio de musique, en attaquant le “problème” (c’est-à-dire comment faire sonner une chanson) sous plusieurs angles.
Des livres entiers ont été écrits sur les effets audio individuels dont je ne vais discuter que quelques centaines de mots ci-dessous – donc si vous voulez des ressources supplémentaires au-delà de ce que je fournis, je vous en prie.
Je ne serai pas jaloux.
Sommaire
Les 5 grands
De manière générale, il existe 5 effets audio principaux qui sont apparents sur presque toutes les chansons enregistrées ou jouées. Même au-delà du monde du mixage, lorsque vous vous amusez avec des pédales de guitare, ou même avec votre chaîne hi-fi, il est probable qu’au moins quelques-uns des 5 grands effets soient impliqués d’une manière ou d’une autre.
En raison de leur importance, il est vital que nous ayons une compréhension de base de leurs fonctions avant de nous lancer dans toute sorte d’aventure liée au home studio, même si nous voulons nous en tenir aux effets VST/audio classiques à l’avenir.
Les 5 grands sont :
- Égalisation
- Compression
- Réverbération
- Délai
- Saturation
Ils seront au centre du cours d’aujourd’hui, alors asseyez-vous, soyez attentifs et préparez-vous à prendre des notes. Si vous avez de la chance – et que vous vous tenez bien – après le cours, je mentionnerai peut-être quelques autres effets audio amusants qui peuvent épater vos productions.
Ok, prêt ?
Allons-y.
EQs (Egaliseurs)
Qu’est-ce que c’est ?
Les égaliseurs (mieux connus sous le nom d’EQ) sont l’une des formes les plus courantes de traitement audio et sont probablement les seuls des 5 que les consommateurs auront utilisés sans jamais développer une chanson.
Vous pouvez trouver des égaliseurs sur votre téléphone, souvent avec un certain nombre de préréglages, sur votre chaîne hi-fi, sur Spotify, sur une pédale de guitare et même dans votre voiture.
Au-delà de ces utilisations domestiques, les égaliseurs se retrouvent dans les amplificateurs et les haut-parleurs, utilisés dans les salles de production de la radio et de la télévision et dans les théâtres.
Les principaux types d’égaliseur sont : graphique et paramétrique. Il en existe quelques autres, mais au niveau fonctionnel de base, ils font tous la même chose : ajuster le volume (signal électrique) d’une “bande de fréquences” spécifique, modifiant ainsi le son global.
Cela peut simplement être utilisé pour rendre un son plus agréable, par exemple en augmentant le bouton des basses de votre voiture lorsqu’une chanson particulière passe, ou pour supprimer les fréquences (sons) indésirables, comme les ronflements et les grincements électriques.
La plupart des égaliseurs que vous rencontrerez dans votre parcours de base de mixage et de création musicale comprendront également une valeur Q, qui détermine la largeur de la bande de fréquences modifiée.
Par exemple, disons que vous réduisez le volume des basses dans une piste que vous êtes en train de réaliser. Une faible valeur Q indique une large bande, ce qui signifie que vos coupures d’équilibre dans les basses pourraient s’étendre de 100 à 400hz.
Par contre, si vous employez une valeur Q beaucoup plus élevée, le changement de volume pourrait ne s’appliquer qu’à une plage de 250 à 270 Hz.
Chaque méthode de manipulation du signal audio est appelée “filtre”, et il existe de nombreuses méthodes différentes. Au fur et à mesure que vous avancerez dans votre carrière de grand musicien, vous en apprendrez beaucoup, mais pour l’instant, je vais rester simple et donner un aperçu des méthodes de filtrage les plus courantes et les plus accessibles.
Probablement les plus simples à comprendre, les filtres passe-haut et passe-bas (respectivement HPF et LPF) suppriment entièrement tout son situé en dessous ou au-dessus d’une certaine fréquence.
Par exemple, si vous réglez un filtre passe-haut à 200 Hz – bien que la gamme de fréquences spécifique dépende du Q que vous utilisez – vous supprimerez tous les sons à partir d’environ 100 Hz et en dessous. Bien entendu, l’inverse s’applique à un filtre passe-bas.
Filtre passe-haut
Ces filtres sont essentiels à presque tous les travaux audio et permettent même au plus novice des ingénieurs du son de faire une différence quantifiable lors du nettoyage de ses enregistrements.
Les filtres passe-haut sont aussi parfois appelés coupe-bas et les filtres passe-bas sont souvent appelés coupe-haut.
Les filtres de dégradé fonctionnent de la même manière que les filtres passe-haut, en ce sens qu’ils fonctionnent en termes de fréquence supérieure ou inférieure à une fréquence, par opposition à une gamme. La plupart du temps, lorsque vous actionnez le bouton des aigus d’un produit grand public, vous manipulez un filtre de dégradé.
Filtre d’aigus (6dB boost)
Les filtres de dégradé fonctionnent de manière à réduire un signal au-dessous ou au-dessus d’une fréquence donnée, mais contrairement aux filtres passe-bas, un dégradé ne supprime pas totalement le son et peut en fait être utilisé pour accentuer (ou amplifier) le signal.
Cela permet d’obtenir un effet plus ciblé sur la tonalité d’une piste ou d’un morceau, contrairement aux filtres passe-partout qui sont davantage conçus pour “nettoyer” un mixage que pour modifier les qualités audio.
Les filtres en cloche portent un nom approprié : ils ressemblent en effet à une cloche. Ils fonctionnent de la même manière que les filtres shelving, c’est-à-dire qu’ils amplifient ou coupent le signal en fonction d’une fréquence prédéterminée.
Cependant, au lieu de se situer au-dessus ou au-dessous d’un point spécifique du spectre, ils opèrent dans une fourchette.
Pour mieux expliquer : Si vous réglez un filtre de basse fréquence à 500 Hz, la gamme de fréquences affectée par le cut ou le boost sera de 0 à 500 Hz. En revanche, un filtre en cloche réglé à 500hz pourrait altérer les qualités sonores de la gamme de fréquences 400-600hz.
Cela permet d’apporter à l’audio des modifications très spécifiques, à petite échelle, que j’approfondirai un peu plus tard.
Il s’agit d’une étrange combinaison de l’enfant du filtre en cloche et des frères du filtre passe. Un filtre coupe-bande ressemble beaucoup à un filtre en cloche – il affecte une petite plage de fréquences au lieu de tout ce qui est au-dessus ou en dessous d’un certain point – mais il “contourne” entièrement la bande de son à laquelle il est appliqué.
Pour simplifier, si vous configurez un filtre coupe-bande à 2500 Hz, cela signifie que – encore une fois en fonction de la valeur Q – tous les sons compris entre 2475 et 2525 Hz seront tout simplement supprimés du signal audio.
Les égaliseurs paramétriques impliquent quelques autres fonctions, que je n’aborderai pas trop en détail de peur d’être aspiré dans le vide sans fin (gardez un œil sur d’autres références liées au vide tout au long de cette série !) des subtilités de l’ingénierie audio
Ok. C’est assez. Passons à la section suivante, où je vous donnerai un avant-goût de ce que vous pouvez faire avec la puissance absolue que vous offre un simple petit objet ressemblant à un graphique sur votre écran.
Comment et quand dois-je l’utiliser ?
Je dois admettre – comme je tente ironiquement d’instruire mes fidèles lecteurs par le biais des écritures – que l’apprentissage et l’utilisation du EQ se font mieux visuellement (par l’image) et de manière sonore que par l’écrit.
En espérant que les images incluses donneront une certaine perspective, je ne serais pas choqué si quelques nouveaux venus à EQ ont été laissés perplexes par la section précédente.
Ne vous inquiétez pas, l’EQ ne se résume pas à savoir ce qu’il fait. En fait, se faire dire spécifiquement ce qu’il faut faire avec un mix est un état d’esprit toxique à avoir en premier lieu. La meilleure façon de faire quoi que ce soit est (cela ne va pas vous choquer, et peut en fait vous aggraver…) de le faire pour vous-même.
Il y a beaucoup de : Quelqu’un sur YouTube a dit que si vous égalisiez les voix avec un filtre à 5 kHz et un léger boost à 450 kHz, votre chanson serait prête pour la radio. Mais quand je l’ai fait sur mon tout nouveau morceau, le son était encore pire !
C’est parce qu’il n’y a pas un seul ensemble de règles, un seul ensemble de directives pour réussir l’égalisation d’une piste. Il faut le faire en se basant sur le ressenti et l’expérience, et la seule façon d’acquérir de l’expérience est de vivre l’expérience dont vous avez besoin. Comme le demandait Jimi Hendrix, “Are You Experienced ?
Jouez avec ! Prenez une chanson au hasard. Faites glisser et déposez divers points d’égalisation. Voyez comment chaque petit changement que vous faites manipule l’audio, l’altère d’une manière qui peut être soit complètement inaperçue, soit totalement révolutionnaire.
Cela dit, il existe un certain nombre de méthodes d’égalisation souvent utilisées pour améliorer le mixage d’une chanson. J’aborderai brièvement certaines de ces techniques avant de passer à l’effet audio numéro 2 sur 5.
Balayage
Utilisé pour trouver des sons franchement dégoûtants, comme les résonances d’une pièce ou les échos malveillants, le balayage consiste à prendre un filtre en cloche, à l’augmenter d’une quantité absurde (souvent 15 dB ou plus), puis à balayer (je sais, n’est-ce pas ?!) tout le spectre de fréquences, en notant les sons particulièrement choquants.
La façon dont vous définissez ce qui est particulièrement offensif est en fait un point de discorde pour cette méthode et constitue l’un de ses principaux inconvénients, mais à un niveau de base, elle peut être efficace pour les débutants en EQ.
Une fois cela fait, vous revenez à chaque gamme de fréquences que vous avez notée et vous ajoutez un filtre coupe-bande.
Égalisation des miroirs
Également appelée notching, il s’agit d’une méthode d’égalisation axée sur les “grands” projets musicaux comportant un certain nombre de pistes et de couches différentes dont les qualités sonores se chevauchent.
Lors du mixage d’une piste qui semble boueuse, ou d’une chanson où les instruments disparaissent simplement dans le chaos, l’égalisation miroir est une méthode populaire pour ajouter de l’espace au mixage.
Cela se fait en amplifiant un signal de fréquence particulier dans une piste, puis en coupant exactement la même bande de fréquence dans une autre, ce qui permet de créer un espace dans le spectre auditif pour que les sons puissent coexister pacifiquement.
Filtrage des passages
Comme nous l’avons vu plus haut, le filtrage passe est un élément essentiel de tout exercice de mixage et l’un des très rares conseils à suivre. Vous devez le faire sur tout.
En fait, il faut couper en dessous de l’endroit où le son réel entre dans l’enregistrement, en réservant le filtre à l’élimination des ronflements et des bourdonnements.
Bien sûr, l’expérience entre en ligne de compte lorsqu’il s’agit de décider où couper, la réponse à cette question étant mieux informée par l’écoute du morceau/de l’audio et non par ce qu’a dit un inconnu sur Reddit.
Autres utilisations
Ce qui précède n’est que la partie émergée de l’iceberg lorsqu’il s’agit d’utiliser l’égalisation dans vos travaux de home studio.
Il peut être utilisé de manière créative, en reproduisant un son de type haut-parleur/radio, ou utilisé pour manipuler la position de certaines pistes dans un champ sonore. Vous pouvez faire en sorte que les voix aient un son étroit et brillant, ou que les claviers aient un son boomy et énorme.
Ce que vous faites avec l’égaliseur dépend de vous, mais les options sont presque illimitées. Aucun autre effet n’est aussi vital pour le son d’une chanson complète.
Vous pouvez utiliser des filtres passe-haut pour créer des sections de son lo-fi afin d’ajouter une “accumulation” ou un changement de son sans modifier de manière significative le volume
Compression
Qu’est-ce que c’est ?
Vous est-il déjà arrivé d’écouter une chanson douce et acoustique sur Spotify en conduisant votre voiture, de monter le son pour pouvoir mieux groover, pour finalement vous écraser quelques secondes plus tard après que la prochaine chanson de la file d’attente se soit annoncée à un volume ridicule sortant de votre haut-parleur ? Eh bien, je l’ai fait.
Un compresseur existe pour éviter que ce scénario ne se produise, mais généralement dans le vide (j’ai recommencé !) d’une chanson individuelle, voire d’un enregistrement individuel.
Tout comme l’égalisation, la compression a des fonctionnalités importantes qui dépassent le cadre de votre prochain projet hip-hop dans Ableton Live. C’est un composant essentiel dans de nombreux domaines liés à l’audio, tels que la radio, le cinéma et le spectacle vivant.
L’objectif principal d’un compresseur est de réduire la gamme dynamique de l’audio, ce qui permet une expérience d’écoute fluide et cohérente.
D’une manière générale, il existe deux grands types de compression, bien qu’il existe sous ces catégories des sous-catégories indépendantes qui ont leurs propres utilisations populaires.
La compression descendante a pour but de réduire/contrôler les sons dépassant un niveau de seuil défini en réduisant leur volume, tout en n’ayant aucun effet sur la force du signal des sons en dessous du seuil. Il s’agit du type de compression le plus courant.
Comme on peut s’y attendre, la compression ascendante fonctionne à l’inverse de la compression descendante, en accentuant les sons qui existent en dessous d’un seuil de volume spécifique et en laissant intacts les sons plus forts.
Les limiteurs fonctionnent sur le même principe, mais ils sont plus souvent utilisés en mastering ou sur des mixages entiers plutôt que sur des enregistrements individuels, afin de contrôler le volume sonore de l’audio pour qu’il soit adapté à la diffusion.
Les expandeurs (qui augmentent la gamme dynamique de l’audio), les portes de bruit (qui éliminent le son en dessous d’un certain seuil de décibels) et les DeEsser (conçus pour bloquer ou atténuer la fréquence dure que les chanteurs produisent lorsqu’ils chantent des sifflements).
Comment et quand dois-je l’utiliser ?
Alors que les propriétés techniques – sans parler de leur complexité globale – des égaliseurs peuvent être évoquées assez brièvement, les compresseurs ont un certain nombre de fonctions et de contrôles spécifiques qu’il serait pénible pour moi d’exprimer et tout aussi ennuyeux pour vous de lire dans ce cas.
Si vous souhaitez en savoir plus, je vous recommande de lire un article, un chapitre de livre ou de regarder une vidéo consacrée à la compression, car c’est un sujet vaste et il faut un peu de temps pour le maîtriser.
Les paramètres réglables les plus courants pour la compression sont : le seuil, le ratio, le gain/le gain d’appoint, l’attaque, le relâchement, le genou, la crête ou la valeur efficace et le look-ahead.
Pour des besoins extrêmement basiques, les trois seuls éléments que vous devez connaître sont le seuil, le rapport et le gain.
Le seuil affecte la “limite” que votre signal audio ne peut ni dépasser ni être inférieur, le rapport affecte la quantité de signal au-dessus ou en dessous du seuil et le gain est ajusté pour ramener le volume global de la piste à sa place d’origine, car les compresseurs augmentent ou diminuent souvent le volume de l’enregistrement entier.
Quand utiliser un compresseur
Lorsque vous mixez votre chanson (ou celle d’un autre artiste d’ailleurs), les compresseurs sont presque toujours utiles. Une gamme dynamique trop étendue crée une expérience auditive désagréable, et la compression est essentielle pour que votre chanson soit bien intégrée dans un mixage.
De nombreux ingénieurs donnent en fait la priorité à la compression de la piste avant même de prendre des mesures d’égalisation de base.
Cela dit, vous devez faire très attention à ne pas surcompresser votre morceau, à moins qu’il ne s’agisse d’une décision artistique (la surcompression de la batterie est un choix créatif courant, par exemple l’intro de Live Forever d’Oasis). L’utilisation excessive de cet effet peut donner lieu à un son étriqué, en forme de boîte, qui semble trop traité et non musical.
Il ne faut pas avoir une gamme dynamique trop étendue, mais il ne faut pas non plus en avoir trop peu. Vous pouvez perdre l’étincelle, la musicalité, la brillance de certaines performances si vous êtes trop libéral dans l’utilisation de la compression.
La façon d’éviter cela vient bien sûr avec l’expérience (oh, ne faites pas semblant d’être si surpris !), mais il y a quand même une certaine logique que même un novice peut anticiper et exécuter.
Il est logique qu’une chanson pop ou électronique, avec des performances plus virtuelles et une volonté d’être plus forte, nécessite une compression bien plus importante qu’une ballade folk indie.
Le même concept s’applique aux instruments individuels – les guitares électriques surmultipliées ou les percussions de heavy metal sont plus grosses et ont une gamme dynamique bien moins étendue que le fait de jouer au doigt sur une guitare acoustique ou un alto solo. La guitare et la batterie supporteraient probablement beaucoup plus de compression avant de perdre leur magie que l’acoustique ou l’alto.
Tout comme les égaliseurs, les compresseurs ont la réputation injuste d’être importants sur le plan fonctionnel mais pas sur le plan artistique, alors que c’est le contraire.
Il y a toutes sortes d’idées musicales folles qui peuvent être mises en œuvre avec un compresseur – il faut juste avoir le flair d’essayer.
Réverbération
Qu’est-ce que c’est ?
La réverbération est essentiellement un miroir pour le son.
Le son se propage à partir d’une source d’une manière étrange (mais peut-être pas si étrange si vous êtes un étudiant en physique), en ce sens qu’il se propage vers l’extérieur dans toutes les directions, et pas seulement dans la direction vers laquelle il est dirigé. Ainsi, lorsque les ondes sonores touchent un objet solide, elles rebondissent sur celui-ci, provoquant une réflexion – ou un écho.
Cet effet est souvent invisible à l’oreille dans les petites pièces, car les ondes sonores se déplacent toutes si près les unes des autres qu’elles sont relativement imperceptibles. Cela dit, la réverbération est bien sûr amplifiée dans les grands espaces, comme les cathédrales ou les salles de studio désignées.
Les salles de bains sont souvent des environnements à forte réverbération en raison des sols carrelés – je suis sûr que certains d’entre vous ont déjà passé de nombreuses heures dans l’un de ces environnements à chanter de l’opéra, les échos transformant votre terrible performance vocale en une performance que l’on pourrait confondre avec celle d’un virtuose.
Un tel effet était généralement reproduit par le positionnement d’un microphone dans une grande chambre d’enregistrement.
La réverbération est depuis devenue le Saint Graal des effets virtuels, avec des milliers d’émulations numériques de presque tous les environnements d’enregistrement imaginables, disponibles par simple téléchargement (bien que souvent onéreux) sur votre station d’enregistrement numérique.
Vous voulez reproduire l’Abbey Road où les Beatles ont enregistré, eh bien, Abbey Road ? Vous pouvez le faire. Vous voulez faire comme si vos voix avaient été enregistrées à Notre-Dame ? Cette option est à votre disposition.
Le traitement de la réverbération est également disponible sous forme d’unités matérielles, généralement contenues dans des unités telles que les amplificateurs de guitare, les systèmes de sonorisation, les pédales d’effets et les équipements analogiques.
Il existe 4 principaux types de réverbération.
- Réverbération de chambre
- Réverbération de plaque
- Réverbération de ressort
- Réverbération numérique
La forme originale de réverbération, comme expliqué ci-dessus – la réverbération de chambre est basée sur le placement du microphone dans un espace acoustique.
La réverbération à plaque a commencé à devenir populaire dans les années 1960, sa flexibilité ayant usurpé celle des réverbérations “organiques” enregistrées dans une chambre d’écho.
Pour que la réverbération à plaque fonctionne, il a fallu créer tout un dispositif, surtout si l’on considère qu’elle est maintenant facilement émulée dans une minuscule puce sur un ordinateur.
Comme son nom l’indique, une véritable plaque d’acier était maintenue par des cordes tendues, permettant aux vibrations d’un son émis par un transducteur de se répercuter sur la tension du métal.
Bien qu’il s’agisse d’un appareil apparemment complexe et encombrant, l’apparition de la réverbération à plaque a donné lieu à une exploration artistique nouvelle et passionnante de la part de groupes phares tels que Pink Floyd et les Beatles. Oui, vous avez probablement entendu parler d’eux.
Les réverbérations à ressort fonctionnent de manière similaire aux réverbérations à plaque, mais sont plus petites et moins chères à produire.
Tout comme une plaque, une réverbération métallique et chatoyante est simulée en transmettant le son d’un transducteur à une surface métallique – mais elle utilise un ressort, une bobine d’enroulement au lieu d’une feuille plate.
En raison de leur portabilité et de leur caractère relativement peu coûteux, les réverbérations à ressort sont fréquemment utilisées dans les amplis de guitare et les pédales d’effets.
Les réverbérations numériques impliquent une série de processus électroniques afin d’émuler les méthodes de réverbération énumérées précédemment. N’étant pas un passionné de physique ou d’électronique, je ne peux pas vraiment vous expliquer comment les circuits numérique produisent une forme polyvalente d’écho qui est utilisée dans la majorité des applications musicales de réverbération actuelles.
C’est un peu comme une télévision – je ne sais pas comment elle s’allume, mais elle le fait, et cela me suffit.
D’une manière générale, ce type de réverbération est de loin le plus polyvalent, car il est capable d’émuler différentes durées, dimensions de pièce, délais, réponses en fréquence, etc.
Tout VST que vous utilisez dans votre DAW sera techniquement une réverbération numérique, mais une grande partie des réverbérations les plus populaires sont des reproductions de matériel classique à plaque, à ressort ou à chambre.
Plugin Abbey Road Plate Reverb
Comme dans la section précédente sur la compression, les VST de réverbération ont beaucoup trop de fonctions uniques et complexes pour que nous puissions les détailler toutes – mais le simple fait de jouer avec ces logiciels est un passe-temps extrêmement divertissant et un excellent moyen d’apprendre au fur et à mesure.
Changez chaque bouton et voyez comment chaque décision affecte le son source – c’est une bien meilleure façon d’acquérir des connaissances en matière de mixage que de lire sans réfléchir ce qu’un type sur Internet vous dit.
Comment et quand dois-je l’utiliser ?
Ce qui est intéressant avec la réverbération, c’est que son utilisation est souvent associée à l’expérimentation et à l’aventure artistique, ce qui est relativement différent de la compression et de l’égalisation qui sont principalement considérées comme fonctionnelles. C’est totalement faux..
Cette perception existe simplement parce que la réverbération est un outil plus courant pour créer des sons uniques, et non parce qu’elle permet un plus grand niveau de créativité musicale.
Des genres tels que le post-rock, le shoegaze, la dream pop et l’ambient tournent tous autour de l’utilisation intensive d’effets de réverbération, ce qui alimente cette réflexion.
La réalité est que la réverbération est un outil fonctionnel essentiel pour tout mixage. Lorsque vous enregistrez dans un environnement “sec”, c’est-à-dire que votre microphone est positionné de manière à ne capter que votre performance vocale/acoustique, le son qui en résulte est, eh bien, c’est tout simplement bizarre. Il est sans vie et terne, et la seule façon d’apporter une sensation naturelle à l’enregistrement est d’ajouter, ironiquement, une réverbération artificielle.
De plus, la réverbération est un élément indispensable lorsqu’il s’agit d’espacer une piste. Une combinaison bien réglée d’égaliseur et de réverbération peut créer l’illusion d’espace, en envoyant certains éléments de soutien d’une chanson à l’arrière du spectre auditif, tout en mettant les pistes principales au premier plan.
Elle est essentielle pour donner à vos enregistrements un son naturel, mais aussi pour rendre vos mixages plus profonds, plus épais et mieux équilibrés. Sans parler, bien sûr, de ses nombreuses utilisations créatives.
Il est important de ne pas abuser des VST de réverbération dans vos œuvres musicales, sauf si vous avez l’intention de créer une certaine ambiance ou un certain son. Trop d’écho peut entraîner une confusion dans le spectre auditif de l’auditeur, car les éléments des pistes individuelles conçus pour se démarquer se mélangent, brouillant la chanson, la transformant en un grand vide de son.
SOYEZ SUBTIL.
Alors, vous vous demandez comment éviter de créer cette superposition d’écho et de flou dans mes chansons, sans que mes enregistrements acoustiques ne sonnent secs et peu naturels ?
Entrez..
Délai
Qu’est-ce que c’est ?
Le délai est à peu près exactement ce à quoi il ressemble (c’est drôle, non ?). Semblable à la réverbération, l’effet de délai tourne autour d’un écho d’une partie de l’audio, qui peut se répéter continuellement, décroître et laisser un certain temps entre chaque retour du signal.
Le délai se distingue de la réverbération par le fait que la réverbération est conçue comme une reproduction naturelle des ondes sonores qui rebondissent continuellement sur les surfaces, créant ainsi un son plus riche et plus épais.
En revanche, le délai est une réplique non naturelle d’une source sonore qui fait écho UNE FOIS puis s’arrête. C’est la raison pour laquelle un écho de délai de base sonne presque exactement comme sa source audio, alors qu’un écho de réverbération ressemble plus à un paysage sonore mélangé qu’à une source individuelle.
Le délai à bande est l’une des premières formes de délai facilement reproductible employées par les musiciens. Son utilisation courante a commencé dans les années 1950, bien que d’autres formes aient existé auparavant. Cette méthode de retard fonctionne en envoyant le signal audio réel (en cours d’enregistrement) sur un autre magnétophone.
Le retard présenté entre la réception de la source audio initiale et sa réplication sur la tête de la deuxième bande créait un écho qui est devenu un effet populaire parmi les musiciens.
Les délais à semi-conducteurs ont fait une brève apparition sur le marché professionnel dans les années 1970 comme alternative aux délais à bande, mais ils ont été rapidement usurpés par la force dominante de l’écho aujourd’hui – le délai numérique.
Plugin Galaxy Tape Echo
Le délai numérique fonctionne à peu près de la même manière que la réverbération numérique, en ce sens qu’il traite un signal à travers divers moyens, euh… disons électroniques, ce qui permet une polyvalence, une portabilité et une fonctionnalité extrêmes.
Cette méthode de création d’un écho a bien sûr été transposée aux logiciels informatiques avec la naissance et la prise de contrôle hostile des DAW en tant que support prédominant de la production musicale, ce qui a conduit à la myriade de VST de délai à notre disposition sur le marché actuel.
Comment et quand dois-je l’utiliser ?
Étant donné que j’ai dit presque exactement la même chose pour chaque élément VST particulier, vous ne serez pas choqué par mes propos :
Le délai a un éventail de fonctions bien plus large que le simple fait d’être un délai.
Lorsque vous pensez au délai, je suis sûr que votre esprit se projette immédiatement sur l’une de vos chansons préférées, lorsque la dernière ligne de la strophe d’un chanteur est répétée exactement 1/4 de temps après qu’il ait fini de chanter, ou comme partie intégrante de l’intro d’un métal rythmé par les guitares (il suffit d’écouter une chanson de U2 pour s’en rendre compte).
Le délai peut être utilisé pour un certain nombre d’effets intéressants, à la fois de manière créative et pour aider un mixage à bien se tenir. Du point de vue de l’expérimentation artistique, le délai peut fonctionner un peu comme une réverbération, avec une certaine clarté lorsqu’il est utilisé comme boucleur.
Nombreux sont les guitaristes indé qui se sont assis à l’extérieur du quartier “branché” dont ils sont originaires, jouant un accord de do majeur qui semble injustement magique en raison de la présence d’un looper.
Le délai a la capacité de modifier complètement la hauteur et la structure temporelle d’une piste individuelle ou même d’un morceau entier, de renvoyer l’entrée audio en sens inverse et d’ajouter des filtres tels que la modulation de phase ou d’égalisation à l’écho.
Cependant, je parie que vous vous demandez maintenant : “Vous nous avez promis une réponse à la question de savoir comment éviter d’utiliser trop de réverbération, mais où est-elle ?”
Oui, quelques centaines de mots et l’explication la plus simple qui s’est avérée relativement compliquée de retard et je n’ai toujours pas tenu cette promesse. Eh bien, vous pouvez arrêter de retenir votre souffle, car la voici :
Retard.
C’est tout. La réponse est juste : Retarder.
Utilisez plutôt le délai. Il permet d’éviter la confusion, l’excès, le masquage involontaire de la clarté musicale tout en permettant aux pistes individuelles de conserver une qualité naturelle.
Ceci peut être réalisé – et l’est souvent dans la musique pop et rock – en utilisant un délai “slapback”, qui est un écho avec une seule répétition qui se produit généralement très peu de temps après le matériel source, donnant l’impression d’une réverbération sans la boue.
Il existe un certain nombre de tutoriels YouTube sur la façon de mettre en œuvre correctement les délais slapback dans vos mixes, mais l’utilisation du délai au lieu de la réverbération est l’un des (très rares) conseils que je suis prêt à donner et qui s’applique à la majorité de vos travaux créatifs.
Saturation (Distorsion)
Qu’est-ce que c’est ?
Bien que la saturation ait été utilisée – bien que souvent de manière organique – avant les méthodes contemporaines de production musicale, les VST à saturation sont la réponse de l’ingénieur moderne à la numérisation du matériel.
Il s’agit d’une tentative de reproduire les qualités sonores agréables qu’avaient les méthodes analogiques originales d’enregistrement et de traitement de la musique – à l’époque de l’âge des ténèbres – en donnant une qualité tonale plus puissante et plus satisfaisante aux productions numériques qui nécessitent peu d’équipement physique.
Lorsque l’on fait délibérément tourner et que l’on surcharge des sons, qu’il s’agisse d’un mixage entier ou d’une piste individuelle, à l’aide de matériel tel que des amplis à transistors, des amplis à lampes et des magnétophones, il en résulte une distorsion chaude et colorée dont l’effet sur l’audio peut aller d’à peine audible à la réquisition.
Le doux résultat obtenu grâce aux saturateurs est dû aux “harmoniques” qui sont ajoutées à un enregistrement numérique ou à un son. Lorsqu’une forme d’onde est déformée, sa réponse en fréquence originale est modifiée, ce qui permet d’ajouter de nouvelles couches et textures qui n’étaient pas présentes au départ.
Bien que cela puisse avoir des effets plus extrêmes et indésirables, c’est le processus de base d’un saturateur.
En ajoutant du caractère à vos mixages et à vos enregistrements par l’introduction de nouvelles incohérences musicales , vous évitez de perdre la musicalité organique qui peut autrement être perdue par le processus numérique.
Comment et quand dois-je l’utiliser ?
Je dois dire que les saturateurs ne sont pas l’un des effets les plus évidents auxquels vous pensez lorsque vous commencez à réfléchir (ou plutôt à rêver) aux VST que vous souhaitez ajouter à votre collection de logiciels audionumériques.
Ce n’est pas qu’ils ne sont pas “sexy”, ils sont juste un peu impensés ? Je ne sais pas trop pourquoi, si ce n’est que beaucoup de producteurs et de compositeurs débutants ne semblent pas connaître leur existence.
Cela dit, chaque nouvelle pédale de “distorsion” est techniquement une forme de saturation (ou vice versa), de sorte que la plupart des musiciens y ont été exposés à un certain niveau.
Pourtant, même s’ils sont relativement anonymes, les saturateurs sont tout simplement géniaux. Ils font tout simplement bien sonner les choses. Leur présence sur chaque piste, chaque mixage, chaque enregistrement, s’ils sont utilisés et sélectionnés avec soin, est la bienvenue. Ils peuvent être (et sont souvent) la pièce manquante du puzzle, le VST final qui transforme votre piste d’un brouillon fini en une production prête pour la radio.
Je peux vous entendre vous moquer en ce moment. Oui, je peux. Ne demande pas comment. Qu’est-ce que c’est ? Tu penses que c’est une idée ridicule de mettre de la distorsion sur un instrument comme une guitare acoustique, ou un solo de violoncelle, n’est-ce pas ?
Je l’admets, cela peut sembler être le cas, mais en pratique, cette affirmation ne pourrait être plus éloignée de la vérité. La saturation peut littéralement (oui, je veux dire littéralement) être appliquée à n’importe quel enregistrement, instrumentation ou mixage, tant que cela est fait avec une oreille attentive et dans un but précis.
Cela s’applique à tous les VST mentionnés ci-dessus, mais il s’agit d’une leçon particulièrement importante lorsque l’on considère un outil aussi puissant que la saturation – un outil qui peut être branché sur n’importe quoi et améliorer le son de l’enregistrement individuel.
Bien que cette piste puisse avoir un meilleur son, vous risquez de détourner l’attention de la voix ou du solo de guitare ou, paradoxalement, de brouiller votre chanson finale en donnant à chaque enregistrement individuel un nouveau niveau de clarté.
Ne prenez jamais une décision “juste parce que”. Ayez toujours un but lorsque vous faites des choses comme ajouter un émulateur de bande. Pensez à ce que vous voulez obtenir, et si l’ajout d’un saturateur à chaque piste vous permet d’atteindre cet objectif, alors vous pouvez vous en donner à cœur joie.
Et comme cadeau d’adieu pour cette section, je vais inclure un conseil dont vous vous souvenez peut-être. Je suis sûr que vous serez ravi de l’entendre.
SOYEZ SUBTIL.
La distorsion de bande est l’un des effets de saturation les plus populaires et les plus agréables à entendre.
Autres effets cool
Je ne veux pas vous retenir ici toute la journée (et toute la nuit, et toute la semaine, etc.) et je ne vais donc pas m’approcher d’une liste exhaustive des effets audio que vous pouvez obtenir pour votre DAW/studio à domicile.
Cela dit, je vais mentionner brièvement d’autres éléments populaires qui ne sont pas aussi essentiels à votre mix que les cinq grands déjà mentionné, mais qui peuvent avoir un impact tout aussi important et passionnant.
Analyseurs/Mètres : Un plugin généralement visuel qui mesure l’amplitude d’un signal d’entrée et le met en relation avec une mesure spécifique – souvent le spectre de fréquence. Ceci est utile pour comparer l’équilibre de votre mixage à d’autres du même genre.
Chorus : Bien que le chorus puisse être créé à l’aide d’un délai, il existe de nombreux plugins consacrés à l’émulation de cet effet avec plus de malléabilité. Le chorus est essentiellement un retard extrêmement court et une modification mineure de la hauteur du son entre un son original et une sortie.
Filtres : Les filtres sont juste des décalages d’égalisation pré-automatisés – un peu comme ce que j’ai démontré dans la section EQ mais généralement en mouvement/évolution constante. Le son classique d’un moteur à réaction qui démarre pourrait être réalisé avec un AutoFilter.
Flangers : Les Flangers fonctionnent presque de la même manière que les Chorus, mais avec un temps de retard beaucoup plus court, ce qui provoque un feedback plus important dans les hautes fréquences, d’où leur son distinct et résonnant. Le chorus ressemble plus à un éclat désaccordé – les flangers donnent plus l’impression d’un mouvement dans l’audio.
Les phasers : Une fois de plus basé sur la copie d’un signal (comme les chorus et les flangers), mais cette fois sans utiliser de délai. Le signal passe ensuite par un filtre qui crée une série de pics et de creux dans le spectre des fréquences. Le son est similaire à celui d’un flanger, mais avec une dynamique encore plus importante.
Plugins de panoramique : Ils permettent généralement d’automatiser le panoramique de manière créative – en utilisant des portes et des seuils pour dicter quand et où un son désigné se déplace dans le spectre audio gauche-droite. Certains plugins de panoramique permettent un “traitement 3d” au lieu d’un simple 50L et 50R.
Conclusion
Nous espérons que vous avez maintenant une vue d’ensemble pratique de certains des effets audio les plus populaires qui sont disponibles à la fois dans votre station audionumérique et dans les plugins VST tiers.
La plupart de ces manipulations audio sont des émulations numériques de matériel ancien, ce qui permet aux musiciens amateurs comme moi de jouer avec (peut-être trop) sans avoir à vendre toute leur maison.
Le monde des effets audio, et par extension, du mixage, est si dense et sans fin qu’il est impossible d’apprendre tout ce qu’il y a à apprendre. Même les plus grands expérimentent en permanence, découvrant sans cesse de nouvelles façons d’exploiter les ondes sonores pour plaire à leur public.
Mais bon, si nous savions déjà tout, quel serait l’intérêt ?
Bonne chance, et j’ai hâte de vous revoir la prochaine fois où nous étudierons la structure atomique des CD.
Je plaisante.