Leonardo On-Line, the website 
of Leonardo/ISAST  Leonardo, the Journal of the International 
Society for the Arts, Sciences and Technology  Leonardo Music 
Journal  Leonardo Electronic 
Almanac: monthly coverage of Internet news and digital media culture  Book Series: 
innovative discourse on art, science and technology topics by 
artists, scientists, researchers and scholars Leonardo Reviews: scholarly reviews of books, exhibitions, CDs, 
journals and conferences  OLATS, 
l'Observatoire Leonardo des Arts et des Technosciences: key works, 
artists, ideas and studies in the field  Leonardo / Activities and Projects  Leonardo / About Us   
 

ETUDES ET ESSAIS > LES BASIQUES > LA MUSIQUE ELECTRONIQUE > QUELS SONT LES OUTILS ET LES TECHNOLOGIES DE LA MUSIQUE ÉLECTRONIQUE ?
   
< - Sommaire - >   

  
 

Quels sont les outils et les technologies de la musique électronique ?







  1. Les instruments et les technologies de la musique électronique 1.1. Les premiers instruments
    1.2. Oscillateurs
    1.3. Synthétiseur et synthèse sonore
    1.4. Contrôleurs
    1.5. Effets et techniques de traitement du son
    1.6. Le système MIDI
    1.7. Séquenceurs
    1.8. Boîtes à rythmes
    1.9. Échantillonneur
    1.10 Logiciels
  2. Quand les outils de reproduction et de diffusion deviennent instruments de création 2.1. Magnétophone et bande magnétique
    2.2. Microphones
    2.3. Disques et platines
  3. Le studio comme espace et instrument de création 3.1. Le studio comme outil de création
    3.2. Le home studio
  4. À l'heure du tout-électronique, la question de la démarche de l'artiste


Le symbole Ö avant ou après un mot indique un lien vers une autre fiche des " Les Basiques : La musique électronique ? ".





1. Les instruments et les technologies de la musique électronique


1.1. Les premiers instruments

Entre la fin du 19e et le début du 20e siècle, l’histoire de la musique est jalonnée par l’invention de nombreux instruments mettant à profit les découvertes scientifiques liées à l’énergie électrique. Ces instruments, sur lesquels ne sont interprétées que des mélodies issues du répertoire classique ou de la culture populaire, précèdent l’apparition d’une véritable musique électronique qui ne prend forme qu’au cours des années 1950 et 1960. Les inventeurs de ces machines aux sons littéralement inouïs réussissent rarement à trouver des artistes capables de composer pour leurs instruments et de leur créer un répertoire spécifique, et encore moins des sociétés prêtes à commercialiser leurs inventions. Néanmoins, ces nombreuses recherches inspirent la réflexion de compositeurs avant-gardistes du début du 20e siècle comme Edgard Varèse (1883-1965), Henry Cowell (1897-1965), John Cage (1912-1992) ou Oskar Sala (1910-2002), dont l’influence est déterminante dans les domaines de la musique contemporaine et électronique.

Le Clavecin ou Clavessin Électrique, conçu par le jésuite et physicien Jean-Baptiste de la Borde (1730-1777) en 1761 est la plus ancienne de ces inventions. Équipé d’un clavier, cet instrument utilisait l'électricité statique pour frapper des cloches avec de petits clapets métalliques. Cette invention est suivie par le télégraphe musical, ou télégraphe harmonique, d’Elisha Gray (1835-1901). Présenté aux États-Unis en 1874, cet appareil équipé d’un clavier et d’un oscillateur électrique est considéré comme l’ancêtre officiel du synthétiseur.

Le Telharmonium ou Dynamophone de Thaddeus Cahill (1867-1934) lui succède en 1897. Toutefois, son importante consommation électrique, ses proportions et son poids gigantesques (près de deux cent tonnes pour dix-sept mètres de long) ne lui permettront pas de convaincre les compositeurs ou les industriels. En 1899, l’ingénieur William Du Bois Duddell (1872-1917) raccorde un clavier à des lampes à arc au carbone, lui permettant de générer et contrôler des fréquences sonores. Son Arc Chantant ne connaîtra pas plus de succès et ne sera ni breveté, ni commercialisé.

Audiolab de Laurent Massaloux

Le Thelharmonium de Thaddeus Cahill.


L’Audion Piano de Lee De Forest (1873-1961), conçu en 1915, est lui aussi considéré comme un ancêtre des machines actuelles, grâce à son clavier permettant de contrôler le timbre et le rythme produits par la fréquence d’un oscillateur.

Le Theremin Vox, conçu par l’ingénieur russe Léon Theremine (1896-1993) en 1920, est le premier véritable instrument électronique à séduire les musiciens et les compositeurs, grâce à sa portabilité et sa musicalité. Délivrant des hautes fréquences, il permet à l’interprète de contrôler la hauteur et le volume d’un son synthétique en approchant ses mains de deux antennes, l’une verticale, l’autre horizontale. Produit aux États-Unis par la firme RCA à partir de 1929, l’appareil trouve de véritables interprètes en la personne de Clara Rockmore (1911-1998) ou Samuel J. Hoffman (1903-1967) et inspire des compositeurs comme Edgard Varèse ou Bohuslav Martinu (1980-1959). Les Ondes Martenot, brevetées en 1928, sont basées sur le même principe. L’instrument inventé par le Français Maurice Martenot (1898-1980), équipé d’un clavier, se révèle toutefois plus maniable et intègre rapidement des formations orchestrales. Des compositeurs de musique contemporaine comme Arthur Honegger (1892-1955), Darius Milhaud (1892-1974) et Olivier Messiaen (1908-1992), conquis par ses sonorités aériennes, écrivent rapidement pour cet instrument que son inventeur ne cesse de développer jusqu’en 1975.



Léon Theremine présente et joue de son instrument : le Theremin Vox


Au cours des années 1930 et 1940, cette dynamique s’accélère et l’on ne compte pas moins d’une quarantaine d’instruments mis au point par des ingénieurs, physiciens ou simples musiciens bricoleurs. Parmi ces machines au nom parfois poétique (l’Orgue des Ondes, le Kaleïdophone, The Free Music Machine), retenons le Rhythmicon, ancêtre de la boîte à rythmes Ö, conçu en 1930 par le compositeur d’avant-garde, dit « ultramoderniste », Henry Cowell (1897-1965) et l’ingénieur Léon Theremine, et remis au goût du jour par des groupes pop comme Pink Floyd et Tangerine Dream au cours des années 1970. Citons encore les machines visionnaires du Canadien Hugh Le Caine (1914-1977), dont l’Electronic Sackbutt, conçu entre 1945 et 1948, est considéré comme un autre modèle pionnier du synthétiseur ; le Trautonium de Friedrich Trautwein (1888-1956), inventé en 1930, dont les timbres novateurs séduisent des compositeurs comme Paul Hindemith (1895-1963) et Oskar Sala (1910-2002) ou enfin l’Ondioline du Français Georges Jenny, qui trouve chez le compositeur Jean-Jacques Perrey (né en 1929), un ambassadeur inspiré.



Dans les années 1960, le compositeur Jean-Jacques Perrey fait la démonstration à la télévision américaine de l’Ondioline et de ses capacités d’imitation des instruments acoustiques


Ce sont néanmoins deux autres instruments, l’orgue Hammond, mis en vente dès 1935, et le Clavioline, conçu en 1947, qui connaissent un succès populaire dépassant le cadre des musiciens d’avant-garde. Avec le Theremin et les Ondes Martenot, ce sont les principaux instruments à émerger de cette période prolifique d’expérimentation et d’invention.



Démonstration sur un Clavioline de 1958



1.2. Oscillateurs

|||||||||| Un oscillateur est un circuit électronique produisant un courant alternatif périodique.

Détournés de leur usage premier dans le domaine de l’électricité, les oscillateurs constituent l’un des premiers outils utilisés par les pionniers de la musique électronique afin de produire un son synthétique.

À partir des années 1960, les oscillateurs constituent l’un des composants essentiels des synthétiseurs. Varier la fréquence du courant alternatif émis par l’oscillateur permet de modifier la hauteur du son produit par l’instrument et de délivrer ainsi différentes notes de musique.



1.3. Synthétiseur et synthèse sonore

|||||||||| Un synthétiseur est un instrument de musique électronique. Il permet de créer et de manipuler des sons au moyen d’oscillateurs produisant des formes d’ondes que l’on module à l’aide de techniques dites de synthèse sonore. À l’origine, le synthétiseur a été conçu afin d’imiter, avec plus ou moins de réalisme, les sons des instruments acoustiques. Il permet aussi la création de sons synthétiques inédits.

|||||||||| La synthèse sonore est une technique qui permet de générer des signaux sonores. Ces signaux peuvent être entièrement artificiels, à l’image des sons générés par la première génération de synthétiseurs. Ils peuvent aussi imiter, de manière plus ou moins élaborée, des sons naturels ou acoustiques.

Il existe différents types de synthèse sonore :

- La synthèse analogique ou soustractive consiste à créer à partir d’un ou plusieurs oscillateurs, différents types de sons, selon la forme d’onde générée par l’oscillateur : onde triangulaire, en dent de scie, carré, sinusoïdale ou encore impulsionnelle. Il est par la suite possible de modifier le timbre et la hauteur du son à l’aide de systèmes de filtres et d’enveloppes.

- La synthèse à modulation de fréquence, dite FM, consiste à moduler l’onde de base selon un procédé dit non linéaire. La synthèse FM permet ainsi de créer une onde aux timbres plus riches et variés que la synthèse analogique.

- La synthèse additive consiste, grâce à un procédé numérique, à créer des sons plus riches et complexes que la synthèse analogique, en superposant une multitude de signaux sinusoïdaux harmoniques.



1.4. Contrôleurs

Une interface est nécessaire afin d’utiliser un synthétiseur ou tout autre instrument, logiciel ou dispositif électroniques. Cette interface, appelée contrôleur, peut prendre différentes formes :

- Un tableau de connexions, utilisant des cadrans, des câbles et des interrupteurs, comme pour les premiers synthétiseurs des années 1960. Ce tableau de connexions peut désormais prendre une forme virtuelle au sein de logiciels de composition, c’est-à-dire sous la forme d’une interface graphique et non plus physique.



Le tableau de connexions du Synthétiseur Buchla 200, conçu dans les années 1970


- Un clavier, reprenant le modèle de l’orgue ou du piano.

- Une antenne, comme pour le Theremin. Cet instrument permet à l’interprète de contrôler la hauteur et le volume d’un son synthétique en approchant ses mains de deux antennes, l’une verticale, l’autre horizontale.

- Un pavé tactile, traduction française officielle de « touch pad » ou « track pad » [1] . Ce type de pavé tactile équipe dès 1928 les Ondes Martenot, puis les premiers modèles de synthétiseurs de l’inventeur Donald Buchla développés à partir de 1965. On le retrouve aujourd’hui sur de nombreux dispositifs permettant aux musiciens de contrôler leurs instruments en direct. Ce pavé peut aussi aujourd’hui prendre la forme d’un écran tactile, comme les écrans des tablettes numériques.

- Un contrôleur MIDI. Il s’agit d’un appareil, équipé de potentiomètres et de boutons de contrôles qui, grâce au système MIDI Ö permet de contrôler de nombreux paramètres sonores d’un synthétiseur ou d’un logiciel de composition.



Un contrôleur MIDI, créé par le musicien et ingénieur allemand Ander


Les développements de l’informatique, ainsi que la capacité de contrôler à distance et en temps réel les fonctions d’un logiciel musical, ont permis la création de nombreux autres types de contrôleurs, rarement édités à plus de quelques exemplaires, dont l’usage est réservé à ses inventeurs ou aux artistes qui ont contribué à son développement.

Ctions parmi de nombreux exemples de cette lutherie expérimentale :

- L’Omni, conçu en 1985 par Patrice Moullet et Guy Reibel, une interface constituée de cent huit plaques de cent huit couleurs différentes réparties sur une surface légèrement sphérique de cent soixante centimètres de diamètre.

- Le système Biomuse, inventé par Hugh Lusted et Ben Knapp, utilisé à partir de 1992 par le musicien et performer Atau Tanaka. Fixé sur le musicien, ce biocapteur réagit aux modulations musculaires et électriques produites par le corps de l’interprète.



Le trio Sensor Sonic Sights (composée de Cécile Babiole, Laurent Dailleau et Atau Tanaka) au festival « Infiltrations Digitales » de Bruxelles en 2004. Atau Tanaka, équipé du système Biomuse, apparaît au centre


- Le système Hands, qui permet grâce à deux prothèses manuelles de contrôler un ensemble complexe de sonorités électroniques. Ce système a été conçu en 1984 et développé pendant plus de vingt ans par le compositeur Michel Waisvisz (1949-2008), considéré comme l’un des grands pionniers de la lutherie électronique dédiée à l’interprétation scénique.

- Le Monodeck, un contrôleur MIDI particulièrement élaboré, conçu par le musicien techno Robert Henke Ö avec l’aide de la société Ableton. Le Monodeck permet une grande souplesse et une grande liberté manuelle dans le pilotage du logiciel Ableton Live dont le musicien est l’un des développeurs.



Une démonstration du Monodeck II, par le musicien Robert Henke




1.5. Effets et techniques de traitement du son

À l’aide d’un synthétiseur, d’un logiciel, de magnétophones ou d’appareils électroniques spécifiques, il est possible d’apporter au son différents types de traitement et d’effet. Parmi les effets utilisés par les musiciens électroniques (ainsi que dans l’ensemble des musiques amplifiées), citons l’équalisation, l’écho, le delay, la réverbération (ou reverb), le chorus, le flanger et la manipulation des panoramiques.

- L'équalisation consiste à augmenter ou diminuer une gamme de fréquences constituant un son spécifique. L’équalisation joue un rôle important dans la finalisation d'un son, elle permet de contrôler le timbre ou la coloration d'un signal audio, modifiant par exemple les sons aigus, médium ou basse fréquence. Cette technique, utilisée par tous les musiciens, constitue toutefois l’une des techniques favorites des DJ.

- L’écho permet de simuler artificiellement l’effet d’écho, la répétition adoucie ou affaiblie d'une ou de plusieurs notes. Avec l’effet de réverbération, c’est l’une des techniques favorites des musiciens dub Ö.

- Le delay, proche de l’écho, produit une répétition de la note ou de la phrase musicale dans le temps. Il permet notamment de décaler un signal sonore dans le temps entre le moment de sa diffusion, celui de sa rediffusion puis de sa répétition. À l’origine, les techniques de delay ont été notamment explorées par des musiciens de la musique électronique et répétitive américaine des années 1960 comme Pauline Oliveros Ö ou Terry Riley Ö.

- La réverbération permet de simuler artificiellement la réverbération d’un son dans un espace donné. La réverbération est différente de l’écho. Elle est composée d'un grand nombre d'échos distincts, appelés réflexions.

- L'effet de chorus est obtenu en prenant une partie de la note ou de la phrase musicale d'origine, en la retardant légèrement et en changeant légèrement sa tonalité.

- Le flanger est similaire au chorus. Il est obtenu en additionnant au signal d'origine ce même signal mais légèrement retardé, produisant un son spécifique, similaire au passage ou au bruit d’un avion à réaction. L’effet de flanger est similaire à un autre effet appelé phasing, expérimenté par les compositeurs Terry Riley et Steve Reich Ö au cours des années 1960, à l’aide de deux magnétophones, dans une forme musicale rappelant celle du canon.

- L’effet de panoramique (ou pan) permet de jouer sur la spatialisation du son dans l’espace. En stéréo, le son peut ainsi être diffusé plus ou moins sur la voie de droite ou de gauche. Dans le cas d’une diffusion sur six ou huit voies, le son peut être modulé dans l’espace avec plus de précision.

- Enfin, il est possible d’accélérer ou ralentir la vitesse de lecture d’un son, ce qui modifie sa hauteur et son timbre.



1.6. Le système MIDI

Le MIDI (abréviation de Musical Instrument Digital Interface, littéralement une interface numérique d’instrument de musique) est un protocole de communication, devenue une norme technique, permettant de connecter et de synchroniser différents instruments électroniques, l’un de ces instruments pouvant être un ordinateur.

Un clavier, dit clavier-maître, peut être utilisé pour commander l’ensemble de ces instruments.

Présenté au public en 1983, le système MIDI a favorisé dès cette époque le développement du home-studio [2] ainsi que l’indépendance des musiciens vis-à-vis des studios professionnels.



1.7. Séquenceurs

|||||||||| Un séquenceur est un appareil ou une fonction d’un logiciel, permettant de faire jouer automatiquement un instrument de musique électronique. Il permet donc de contrôler ou de jouer des séquences rythmiques ou des séries d’échantillons sonores stockés à l’intérieur d’une machine.

Le synthétiseur Buchla fût le premier instrument électronique à intégrer en 1965 un séquenceur. Avant l’introduction de la norme MIDI, les séquenceurs furent particulièrement utilisés par les musiciens afin de produire des séries de lignes harmoniques et de percussions synthétiques, sur lesquelles ils pouvaient jouer ou improviser de façon plus libre. Les séquenceurs ont contribué au développement d’une esthétique spécifique au sein de la musique populaire, privilégiant la création de motifs répétitifs. La musique planante et hypnotique des années 1970, composée par Tangerine Dream Ö ou l’électro-pop plus percussive de Kraftwerk Ö constituent des exemples caractéristiques de l’utilisation du séquenceur. Désormais, les séquenceurs sont naturellement intégrés aux logiciels de composition musicale.



1.8. Boîtes à rythmes

|||||||||| Une boîte à rythmes est un instrument de musique électronique proposant un éventail de percussions synthétiques, imitant de façon plus ou moins élaborée, les sons d’une batterie ou d’un ensemble de percussions.

Certaines boîtes à rythmes, comme les modèles TR-707, 808 ou 909 de la marque Roland ont, grâce à leur timbre caractéristique, profondément marqué les scènes musicales house et techno au cours des années 1980 et 1990.



1.9. Échantillonneur

|||||||||| L’échantillonneur numérique, ou sampler en anglais, est un instrument de musique électronique permettant d’enregistrer, de stocker et de rejouer des échantillons sonores (ou samples) à différentes hauteurs.

Parmi les dispositifs précurseurs du sampler, citons trois appareils permettant de jouer, notamment à différentes hauteurs, des sons enregistrés sur bande magnétique : le Chamberlin de Harry Chamberlin (1948), les phonogènes de Pierre Schaeffer (1951) ou enfin le Mellotron (1963) des frères Les, Frank et Norman Bradley.

L’échantillonneur moderne, permettant l’enregistrement et la mémorisation du son, est lancé beaucoup plus tard sur le marché en 1979 avec le Fairlight CMI. Rapidement adopté par les musiciens dès le début des années 1980, il donne naissance à une nouvelle esthétique musicale, que l’on peut qualifier d’hybride. Le sampler permet en effet aux compositeurs de piocher dans un vaste registre de sons de toutes époques, de toutes origines et de toutes natures, qu’ils soient concrets, vocaux ou musicaux, et de les intégrer au sein d’une composition originale. Parmi les albums pionniers de cette esthétique, citons Zoolook (1984) de Jean-Michel Jarre, utilisant les phonèmes de nombreuses langues peu connues, ainsi que (Who’s Afraid Of ?) The Art Of Noise de The Art Of Noise (1984), jouant de façon ludique avec les sons du quotidien. Dans le sillage de ces artistes, les années 1980 donnent naissance à une esthétique du sampling Ö.

Désormais, les samplers sont naturellement intégrés au sein des logiciels de composition musicale.



Le musicien Peter Gabriel fait la démonstration de l’échantillonneur Fairlight dans l’émission Les enfants du rock sur Antenne 2 au début des années 1980



1.10. Logiciels

Les logiciels dédiés à la M.A.O. (musique assistée par ordinateur) permettent désormais de prendre en charge l’ensemble de la chaîne de production musicale : composition, notation, arrangement, harmonisation, interprétation, enregistrement, mixage et même diffusion des œuvres. Ils peuvent intégrer l’ensemble de ces fonctions sous la forme de plug-ins [3] et d’instruments virtuels ou piloter grâce au système MIDI, une station de travail externe, composée de différents outils et instruments.

Ces logiciels permettent à des musiciens amateurs, des musiciens solitaires ou plus simplement des artistes dénués de grandes connaissances techniques, de disposer d’outils performants, notamment dans le traitement du son, qui étaient autrefois réservés aux professionnels, aux studios et à leurs techniciens chevronnés.

Les logiciels de M.A.O se développent auprès des musiciens amateurs et professionnels à partir de la seconde moitié des années 1980 et connaissent un grand succès au cours de la décennie suivante. Leur démocratisation permet l’émergence d’une nouvelle génération de musiciens électroniques au cours des années 1990 et 2000.

Parmi les logiciels de référence en 2011, citons : Cubase, Reason, Ableton Live, ProTools, Logic, Samplitude et Adobe Audition.

Les studios de recherches français, liés aux avant-garde musicales du 20e siècle, ont aussi contribué à l’évolution des logiciels, avec GRM Tools et Max :

- Les GRM Tools sont des logiciels de création musicale électroacoustique développés au Groupe de Recherche Musicale de l’Institut National de l’Audiovisuel à Paris, en collaboration avec des compositeurs et des techniciens, dotés de très nombreuses fonctionnalités qui permettent de façonner rapidement et efficacement la structure et l’organisation de sons. Les GRM Tools peuvent être facilement intégrés sur de nombreux logiciels grand public destinés aux musiciens électroniques les plus traditionnels comme les plus expérimentaux.

- Max, le logiciel le plus célèbre inventé à l’IRCAM à Paris a été développé au cours des années 1980 par le chercheur et mathématicien Miller Puckette et permet de contrôler des instruments MIDI et de traiter un signal audio en temps-réel. Grâce à ses multiples fonctionnalités, ses innovations techniques et sa capacité à s’adapter aux exigences de nombreux musiciens, son influence est considérable sur de nombreux compositeurs issus de la frange la plus expérimentale de la scène électronique, comme Peter Rehberg, Christian Fennesz Ö, Autechre Ö ou Monolake Ö. Le logiciel Max, devenu aujourd’hui MAX/MSP est désormais intégré au logiciel grand public Ableton Live, utilisé par de très nombreux musiciens de la scène électronique et techno.


Plus récemment l’IRCAM a lancé une nouvelle série d’outils destinés aux musiciens, nommés IRCAM Tools, permettant par exemple de travailler de manière inédite sur la spatialisation d’un son, sur le timbre d’une voix ou d’un instrument.




2. Quand les outils de reproduction et de diffusion deviennent instruments de création

Dès les premières années d’expérimentation de la musique électronique, les outils de captation, d’enregistrement et de diffusion du son participent entièrement à son esthétique. D’une part, ils permettent aux musiciens d’avoir accès à une multitude de sons non musicaux, que les artistes peuvent intégrer à leurs compositions ; d’autre part, ils permettent une manipulation du support sur lequel le son est enregistré, notamment à l’aide de techniques de montage et de mise en boucle de courtes séquences sonores.



2.1. Magnétophone et bande magnétique

Le magnétophone et la bande magnétique, développés par les industries allemandes à partir de 1936 et au cours de la seconde guerre mondiale, pénètrent l’univers de la production musicale à partir de la fin des années 1940. Au cours des années 1950 et 1960, ils constituent les outils de prédilection de l’ensemble des compositeurs travaillant au sein des studios et des centres de recherches de la musique électronique Ö, particulièrement au États-Unis au sein du courant de la tape music (musique pour bande) Ö.



2.2. Microphones

Le microphone est un appareil destiné à transformer aussi fidèlement que possible des ondes sonores en un signal électrique amplifié. Il permet d’enregistrer tous types de sons : instruments, voix ou bruits d’ambiance. Cependant, son rôle ne se limite pas à cette simple fonction d’enregistrement ou de captation du réel. Les compositeurs issus des avant-gardes des années 1950 à 1970, comme John Cage Ö, Karlheinz Stockhausen Ö, Steve Reich Ö, Pierre Henry ou Luc Ferrari Ö, ainsi que leurs héritiers, ont développé son usage créatif. Le placement du microphone vis-à-vis de la source d’émission d’un son joue en effet un rôle capital dans la captation d’un son ou d’une ambiance. L’angle ou la distance du micro vis-à-vis de cette source, le déplacement d’un micro sur une surface d’émission, le déplacement ou les mouvement d’un micro dans un espace, le choix de tel ou tel type de micro (certains sont plus sensibles que d’autres à certaines fréquences) constituent des décisions autant esthétiques que techniques.

La musique concrète Ö, ainsi que la frange la plus expérimentale de la musique électronique actuelle font aussi usage de microphones de contact, dont la fonction n’est pas de capter la pression de l’air, mais les vibrations d’un matériau solide. Placé sur une plaque de métal, une pierre, une surface de bois, la peau d’une percussion ou un quelconque instrument, un microphone de contact permet de capter des sons et des vibrations qui ne sont habituellement pas perçus par l’oreille humaine. Cette matière sonore, abstraite et parfois non identifiable, constitue un matériau pour des compositeurs comme le Soundwalk Collective, Robert Henke ou Chris Watson.



2.3. Disques et platines

Les électrophones, les platines tourne disques et les disques vinyles constituent des outils de diffusion de la musique qui ont été rapidement détournés par les artistes et parfois considérés comme des instruments. Parmi les techniques utilisées, citons la manipulation manuelle et directe de la surface d’un disque, dont on peut faire varier la vitesse ou le sens de rotation, la manipulation manuelle de la cellule ou du bras de lecture, sans oublier celle du mécanisme interne de l’appareil.

En 1939, John Cage figure parmi les premiers artistes à utiliser les possibilités créatives du tourne-disque.

En 1948, les pères de la musique concrète, Pierre Schaeffer et Pierre Henry, réalisent leurs premières expériences de manipulation du son à partir de disques souples, sur lesquels ils ont enregistré, en boucle, de courtes séquences sonores (aussi appelés sillons fermés). Malgré la maniabilité des disques souples, ils abandonnent cette technique au profit du magnétophone, qui s’impose dans l’ensemble des studios au cours des années 1950.

Au cours de la première moitié des années 1970, les DJ des courants hip hop Ö (5.4.) et disco Ö, qui ne se revendiquent aucunement des avant-gardes historiques, innovent dans l’usage des platines tourne-disques, notamment grâce aux techniques du break et du phasing, leur permettant de manipuler la durée et la structure d’un morceau musical, à l’aide de deux platines équipées de deux versions d’un même disque vinyle. Dans l’univers du hip-hop, ces techniques de manipulation du disque vinyle naissent au cours des années 1970 et connaissent un riche développement au cours des années 1980. Parmi ces techniques, la figure du scratching est la plus connue. Elle consiste à créer de courtes séquences sonores en déplaçant manuellement un disque vinyle en avant et en arrière. Le frottement du disque sur la cellule de lecture permet d’obtenir le son caractéristique du scratching, dont les variations sont nombreuses.

On parle de turntablism [4] Ö pour désigner l’ensemble de ces techniques inventées par les DJ du hip hop. Ce terme définit aujourd'hui à la fois la pratique de DJ issus du hip hop tout comme celle d'artistes venus de la musique expérimentale, noise Ö ou concrète, dont les compositions sont entièrement réalisées à partir du maniement de platines vinyles.




3. Le studio comme espace et instrument de création



3.1. Le studio comme outil de création

À partir des années 1960, chez certains musiciens pop et plus encore chez les musiciens électroniques, le studio n’est plus considéré comme un simple espace d’enregistrement, mais comme un lieu de création à part entière, à l’intérieur duquel le compositeur élabore et construit son œuvre. C’est vrai pour les artistes qui ont travaillé dans les centres de recherche comme le GRM Ö ou le Columbia-Princeton Electronic Music Center Ö, mais aussi pour des artistes de la musique populaire comme les Beach Boys et les Beatles Ö. C’est aussi vrai pour les inventeurs du dub jamaïcain Ö, passés du statut de simple ingénieur du son à celui d’artiste reconnu, grâce à leur maîtrise unique du remix et des techniques de studio.

En 1979, le compositeur, producteur et artiste Brian Eno Ö, publie dans la revue américaine Downbeat, un texte, The studio as a compositional tool (Le studio comme outil de composition), dans lequel il décrit cette nouvelle approche du travail de création musicale :

« Dans le cas d’une composition réalisée en studio, on n’entre plus en studio avec une idée préconçue. Au lieu de cela, il me semble préférable de ne venir qu’avec une vague idée en tête ou parfois même rien du tout. Je débute souvent une composition sans point de départ prémédité. Si vous êtes familiers des capacités techniques des studios, ou même si vous ne l’êtes pas, il est aisé de débuter avec les contraintes imposées par les studios. Vous pouvez commencer par un simple élément sonore ou musical, auquel vous allez pouvoir rajouter un autre élément, puis en essayer un autre, puis élaguer si nécessaire et ainsi de suite. Ce procédé empirique de composition est à l’opposé des procédés habituellement adoptés par les compositeurs classiques. Vous travaillez ici en fait directement avec la matière du son, et il n’existe aucune déperdition entre l’idée, son exécution et son enregistrement. Le compositeur adopte alors une démarche proche de celle du peintre. Il est en contact direct avec la matière et il peut à loisir modifier son travail » [5] .



3.2. Le home studio

Le terme de home studio désigne un studio de production, d’enregistrement et de mixage de petite taille, installé dans un espace personnel (chambre, salon, garage ou cave). Sa naissance date des années 1980, période au cours de laquelle apparaissent les premiers magnétophones multipistes bon marché. Le home studio connaît un essor considérable au terme de cette décennie et plus encore au cours des années 1990, grâce à la démocratisation des technologies de musique assistée par ordinateur et le développement de la norme MIDI.

Avec l’apparition de la house et de la techno à la fin des années 1980, une grande partie des productions électroniques est conçue au sein de ces espaces domestiques, et moins souvent dans des studios professionnels, trop onéreux pour la majorité des musiciens électroniques.

À partir de la fin des années 1990, le développement des logiciels de composition musicale, ajouté à la puissance nouvelle des ordinateurs, réussissent à concentrer l’ensemble des fonctions d’un home studio au sein d’un seul et même ordinateur.

La légèreté et le faible coût du home studio ont un impact considérable sur l’esthétique et l’économie de la musique électronique des années 1990 à 2010 :

- Il donne accès à de puissants moyens de composition et de production aux musiciens amateurs et aux musiciens dotés de peu de connaissances techniques ;

- Il réduit considérablement les coûts et contribue à une production de titres et d’album importante ;

- Il favorise une relation intime et quotidienne entre l’artiste et sa création, de façon plus accentuée que chez d’autres compositeurs issus par exemple du rock ou du répertoire classique, dont le travail nécessite les moyens de studios professionnels.

La capacité de travailler dans sa chambre à coucher, de composer sur un simple ordinateur portable au fil de ses voyages, de tester rapidement la moindre de ses idées, ont encouragé certains artistes, issus notamment de l’univers de l’électronica Ö, à développer un travail personnel en dehors des contraintes stylistiques et financières qui régimentent bien souvent l'esthétique et l'économie de la musique populaire.




4. À l’heure du tout-électronique, la question de la démarche de l’artiste

Les instruments électroniques et la technologie numérique ont désormais envahi la majorité des pratiques musicales. Dans le domaine du rock, du jazz, du folk ou de la chanson par exemple, les musiciens font régulièrement appel à des outils de production, de composition ou d’enregistrement qui étaient autrefois l’apanage des musiciens électroniques. Les musiciens électroniques font quant à eux appel à des sonorités ou des instruments acoustiques, qu’ils intègrent naturellement au sein de leur composition. En 2011, les frontières entre les genres et les pratiques apparaissent donc de plus en plus poreuses et les artistes semblent de moins en moins attachés à affirmer leur appartenance à telle ou telle école stylistique.

On ne peut donc définir aujourd’hui ce qu’est la musique électronique par le seul décompte des outils et des instruments utilisés par tel ou tel compositeur. Pour ce faire, il faut aussi analyser la démarche du musicien selon différents critères que nous proposons ici. Précisons que ces critères ne sont pas spécifiques mais indiquent une orientation esthétique présente chez de nombreux musiciens électroniques :

-La liberté prise par le compositeur vis-à-vis de la composition classique et des structures traditionnelles de la pop music comme le format couplet-refrain ;

-L’importance accordée au traitement électronique des sources acoustiques, qu’il s’agisse de sons naturels, de la voix ou d’instruments traditionnels ;

-L’invention sonore et le traitement novateur du timbre ;

-La recherche en termes de mode de diffusion et d’écoute.





Sommaire

  • Introduction : Qu'est-ce que la musique électronique ?

  • Quelles sont les premières expérimentations des technologies dans la musique ?

  • Comment l'électronique est-elle devenue pop (1968-1988) ?

  • Qu'est-ce que la house, la techno, quelle est leur histoire et leur descendance (1988-2011) ?

  • Quelles sont les pratiques et l'histoire des DJ ?

  • Quelle est la place des femmes dans la musique électronique ?

  • Quels sont les outils et les technologies de la musique électronique ?

  • En quoi les pratiques électroniques ont-elles transformé la musique et la culture de la fin du 20e siècle ?

  • Où et comment s'écoute la musique électronique ?

  • Quels sont les grands courants esthétiques actuels de la musique électronique ?

  • Festivals, lieux, clubs et événements

  • Bibliographie




    Notes :


    1 Plus précisément, selon la commission générale de terminologie et de néologie, « un dispositif de pointage et de navigation, qui comporte une surface plane sur laquelle on déplace le doigt ».

    2 Studio de taille réduite installé dans un espace domestique.

    3 Selon Wikipédia, en informatique un plugin ou plug-in, aussi nommé module d'extension, greffon, ou plugiciel au Canada, est un logiciel qui complète un logiciel hôte pour lui apporter de nouvelles fonctionnalités.
    Le terme plugin provient de la métaphore de la prise électrique standardisée et désigne une extension prévue des fonctionnalités. Les ajouts non prévus, et initialement apportés à l'aide de correctifs, sont appelés des patchs.

    4 De l’anglais turntable, platine tourne-disque. Le terme a été inventé en 1996, de longues années après l’apparition de ces techniques de jeu sur platines. En français, on peut traduire cette expression sous le terme de « platinisme ».

    5 ENO, Brian, The studio as a compositional tool. Traduction de l’auteur.



    © Leonardo/Olats & Jean-Yves Leloup, décembre 2011
  •    



    [ S'informer ]   [ Recherche ]    [ Commander ]    [ Statistiques ]    [ Accueil ]


    Copyright Association Leonardo/OLATS © 1997
    pour toute re-publication de cette page, merci de contacter Annick Bureaud <info@olats.org>
    pour les problèmes concernant le site, notre webmaster <webmaster@olats.org>
    Leonardo is a federally registered trademark of Leonardo/ISAST -
    Leonardo est une marque déposée de Leonardo/ISAST, selon la loi fédérale des Etats-Unis d'Amérique.