fondements info mus16 - university of paris-est...

29
Fondements de l’informatique musicale, 1955-1985 Paru dans : N. Donin et L. Feneyrou (éd.), Composition et théorie au XX e siècle, Lyon, Symétrie, coll. « Perpetuum Mobile », p. 639-670. 1 Introduction Quels sont les origines et fondements de cet art ? Pourquoi est-il apparu et a-t-il peu à peu connu autant de succès ? Quels étaient les enjeux et que sont-ils devenus dans sa première période de maturité ? Dépositaire de siècles de recherches occidentales et d'attentes quasi- messianiques d'une merveilleuse « machine universelle » 1 , l'informatique musicale est enveloppée d'une gangue de sédiments, historiques et culturels qu’il est désormais possible d’étudier avec un certain recul. Ce texte propose une synthèse permettant de situer l’invention de l’informatique musicale dans son contexte et d’en étudier les premiers pas 2 en trois paragraphes principaux : les précurseurs, les premiers essais et l’informatique musicale classique. La période étudiée se termine au seuil de la microinformatique 3 . 2 Avant l’informatique musicale, 1900-50 « Précurseurs, science-fiction et musique Rêve :pouvoir agir sur le son et la musique Réalité : cela est encore purement imaginaire » 4 Avant le XX e siècle, seuls quelques visionnaires ou des auteurs de science-fiction envisagent de pouvoir « mettre la main sur le son » ou de le guider. Songeons aux « paroles gelées » de Rabelais ou aux « chambres à sons » de Bacon 5 . Comme le fait remarquer F. R. Moore 6 , la première étape des nouvelles technologies musicales est surtout spéculative. Au XX e siècle, la convergence de plusieurs facteurs concrétise ces intuitions anciennes. 2.1 Conditions d’existence des nouvelles technologies musicales « Si les temps étaient normaux — normaux comme avant 1914 —, la situation de la musique actuelle serait bien différente » Schönberg 7 . 1 Pierre Lévy, La machine univers, Paris, La Découverte, 1987, 240 pages. 2 Cet article reprend et développe plusieurs travaux, en particulier Martin Laliberté « Informatique musicale : utopies et réalités. 1957-90 » in Les cahiers de l’Ircam, no 4, Paris, Ircam/Centre Georges Pompidou, pp 163-172 et « Origines et devenir des « nouvelles technologies musicales ». in Musiques, arts, technologies. Pour une approche critique. R. Barbanti, et al. (ed.), Paris, l’Harmattan, coll. « Musique-Philosophie », 2004. 3 Malgré leur importance, nous ne discuterons pas directement des néo-instruments, des musiques électroacoustiques ou de la microinformatique musicale. Veuillez consulter les chapitres appropriés de cet ouvrage et les propositions bibliographiques. 4 F. Richard Moore, « Dreams of Computer Music — Then and Now » in Computer Music Journal, vol. 20, no 1, printemps 1996, p. 25.. Nous traduisons.. 5 François Rabelais, Quart Livre, 1552. Francis Bacon, The New Atlantis, 1626. 6 Op. cit., p 26. 7 1936 . Cité dans Charles Rosen, Schoenberg, Paris, Les éditions de Minuit, coll. « Critique », 1979, p. 7.

Upload: others

Post on 23-Aug-2021

6 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

Fondements de l’informatique musicale, 1955-1985 Paru dans : N. Donin et L. Feneyrou (éd.), Composition et théorie au XXe siècle, Lyon, Symétrie, coll. « Perpetuum Mobile », p. 639-670.

1 Introduction Quels sont les origines et fondements de cet art ? Pourquoi est-il apparu et a-t-il peu à peu connu autant de succès ? Quels étaient les enjeux et que sont-ils devenus dans sa première période de maturité ? Dépositaire de siècles de recherches occidentales et d'attentes quasi-messianiques d'une merveilleuse « machine universelle »1, l'informatique musicale est enveloppée d'une gangue de sédiments, historiques et culturels qu’il est désormais possible d’étudier avec un certain recul. Ce texte propose une synthèse permettant de situer l’invention de l’informatique musicale dans son contexte et d’en étudier les premiers pas2 en trois paragraphes principaux : les précurseurs, les premiers essais et l’informatique musicale classique. La période étudiée se termine au seuil de la microinformatique3.

2 Avant l’informatique musicale, 1900-50 « Précurseurs, science-fiction et musique

Rêve :pouvoir agir sur le son et la musique Réalité : cela est encore purement imaginaire »4

Avant le XXe siècle, seuls quelques visionnaires ou des auteurs de science-fiction envisagent de pouvoir « mettre la main sur le son » ou de le guider. Songeons aux « paroles gelées » de Rabelais ou aux « chambres à sons » de Bacon5. Comme le fait remarquer F. R. Moore6, la première étape des nouvelles technologies musicales est surtout spéculative. Au XXe siècle, la convergence de plusieurs facteurs concrétise ces intuitions anciennes.

2.1 Conditions d’existence des nouvelles technologies musicales « Si les temps étaient normaux — normaux comme avant 1914 —, la situation de la musique actuelle serait bien

différente » Schönberg7.

1 Pierre Lévy, La machine univers, Paris, La Découverte, 1987, 240 pages. 2 Cet article reprend et développe plusieurs travaux, en particulier Martin Laliberté « Informatique musicale : utopies et

réalités. 1957-90 » in Les cahiers de l’Ircam, no 4, Paris, Ircam/Centre Georges Pompidou, pp 163-172 et « Origines et devenir des « nouvelles technologies musicales ». in Musiques, arts, technologies. Pour une approche critique. R. Barbanti, et al. (ed.), Paris, l’Harmattan, coll. « Musique-Philosophie », 2004.

3 Malgré leur importance, nous ne discuterons pas directement des néo-instruments, des musiques électroacoustiques ou de la microinformatique musicale. Veuillez consulter les chapitres appropriés de cet ouvrage et les propositions bibliographiques.

4 F. Richard Moore, « Dreams of Computer Music — Then and Now » in Computer Music Journal, vol. 20, no 1, printemps 1996, p. 25.. Nous traduisons..

5 François Rabelais, Quart Livre, 1552. Francis Bacon, The New Atlantis, 1626. 6 Op. cit., p 26. 7 1936 . Cité dans Charles Rosen, Schoenberg, Paris, Les éditions de Minuit, coll. « Critique », 1979, p. 7.

Page 2: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

Évolutions scientifiques : -développements de l’acoustique -théorie de l’information -cybernétique et automatique -linguistique et phonologie -psychologie et sciences cognitives

Évolutions techniques : -développement de la radiophonie -développement de la téléphonie -développement de l’électronique -développements de l’informatique -incessantes inventions d’outils musicaux

Musiques électriques : Informatique musicale

Electroacoustique, Néo-instrumments, …

Crises musicales : -agonie des musiques tonales et perte de sens de ses hiérarchies -usure du romantisme musical -usure de l’orchestre -émergence irrépressible des timbres et rythmes -décadence du modèle vocal et émergence du modèle percussif -ramification-éclatement de la virtuosité

Crises artistiques : -méfiance envers les arts officiels -perte de confiance dans les valeurs traditionnelles -contre-exemples des cultures non-occidentales

Crises socio-politiques occidentales : -méfiance envers les institutions et politiques officielles -perte de confiance dans les valeurs traditionnelles -contre-exemples des cultures non-occidentales

Ex. 1. Conditions d’existence des nouvelles technologies musicales

Les nouvelles technologies musicales n’apparaissent pas dans le vide et ne sont pas le résultat « accidentel » d’inventions « heureuses ». Elles ont eu cet impact profond sur la vie musicale précisément en vertu de ces conditions multiples d’existence. L’ordinateur musical est le produit d’une évolution majeure de la culture occidentale.

2.2 Mutations artistiques et musicales Pour comprendre l’invention et, surtout, le succès de l’informatique musicale, retenons ceci du contexte antérieur : 1. En réponse aux crises artistiques8 et sociales les musiciens du début du XXe siècle tentent différentes

transformations esthétiques : abandon de la tonalité, essor du timbre et du rythme et libération de la forme ; 2. Les relations entre ces dimensions sont bouleversées, les anciennes hiérarchies deviennent des réseaux de

relations plus équilibrées ; 3. Ces nouveaux équilibres se doublent de différentes théories d’avant-garde, qui tentent d’organiser le nouvel

univers musical. Les théories dodécaphoniques et sérielles9 jouent ici un rôle essentiel ;

8 Le livre de Charles Rosen déjà cité effectue un excellent résumé de ces évolutions essentielles. Pour approfondir, voir les

autres chapitres de cet ouvrage ainsi que Célestin Deliège, Cinquante ans de modernité musicale : de Darmstadt à l’Ircam. Liège : Pierre Mardaga, 2003, 1024 pages.

9 Distinguons les « dodécaphonistes » proches de Schönberg des « sériels » post-wéberniens, ceux de la série « généralisée” de la génération de Darmstadt.

Page 3: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

4. L’essor des rythmes et timbres s’incarne dans une « percussification » de la musique occidentale savante et populaire, non seulement dans la participation accrue des percussions à la vie musicale mais aussi dans une conception plus percussive, dynamique, dissonante et timbrique de la musique ;.

5. Si on y regarde de plus près10, l’émergence du modèle percussif constitue la réponse moderne à l’usure de l’ancien modèle musical d’ordre vocal. En fait, ces deux modèles se révèlent être deux archétypes essentiels de la musique, deux « attracteurs » guidant l’invention et le développement des instruments de musique ;

6. Les compositeurs recherchent une expansion des sons disponibles :sonorités nouvelles avec des moyens classiques (orchestration contemporaine) ou tentatives d’intégration de sonorités aux frontières du musical de Satie à Varèse, Cage, Schaeffer, Eimert ou Ussachevsky, en passant par Russolo, Nancarrow ou Partch. Voir l’exemple 4.

7. La notion romantique de virtuosité connaît au XXe siècle un développement inattendu : loin de disparaître, elle se diversifie considérablement. On décèle au moins trois familles de virtuosités nouvelles :

Virtuosité romantique

Virtuosité sonore

Virtuosité compositionnelle

Virtuosité d’interprétation

Ex. 2. Ramifications de la virtuosité romantique

8. Ces trois types de virtuosité contribuent à engendrer des outils significatifs, et, à terme, l’informatique

musicale11 :

Synthèses sonores Virtuosité sonore

Musique sur bande ou automatisée

Composition assistée

Virtuosité d’interprétation

Virtuosité compositionnelle

Ex. 3. Développements directs et indirects des virtuosités

2.2.1 Une ébullition technique et musicale Ces convergences provoquent de nombreux développements en amont et en aval de l’informatique musicale. Faute d’une discussion, le tableau suivant présente une sélection des principales inventions musicales et quelques compléments :

Ex. 4. Un parcours technologique et musical rapide jusqu’en 199012 Date Catégorie Nom et commentaires

Antiquité Technique Les Romains et les chinois utilisaient l’abaque, un calculateur numérique mécanique, supplanté en 1970 par la calculatrice de poche

v.1026 Formalisation musicale Guido d’Arrezo propose un système de composition mélodique formalisée

10 Martin Laliberté, Un principe de la musique électroacoustique et informatique et son incidence sur la composition

musicale. Analyses et exemples. Paris : thèse de doctorat. École des Hautes Études en Sciences Sociales, 1994, pp 65-82. 11 Martin Laliberté, « Origines et devenir des « nouvelles technologies musicales ». op. cit. 12 La plupart des références données ici viennent de Curtis Roads The Computer Music Tutorial, Cambridge, MIT Press,

1996, 1234 pages, et « Early Electronic Music Instruments : Time Line, 1899-1950 » in Computer Music Journal, vol. 20, no 3, automne 1996, Cambridge, MIT Press, pp. 20-27, Joel Chadabe, Electric Sound, Upper Saddle River, Prentice Hall, 1997, 370 pages et de Mark Vail, Vintage Synthesizers, Cupertino, Miller Freeman Books, 1993, 203 pages. Les autres proviennent d’encyclopédies courantes (Robert, Encyclopedia Universalis, Wikipedia…) ou de sites Internet spécialisés.

Page 4: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

12e siècle Facture instrumentale Des organiers hollandais fabriquent des carillons mécaniques programmables 15e-16e siècles

Formalisation musicale Certains compositeurs (École Franco-Flamande, Dufay, Machaut…) appliquent des procédures formelles (renversements, rétrogrades), proportionnelles (Nombre d’Or) ou des organisations séquentielles strictes (isorythmie, talea, color…)

1622 Technique Invention de la règle à calculer par le mathématicien W. Oughtred. Ce calculateur analogique mécanique simple fut utilisé jusqu’aux années 1970

1642 Technique B. Pacal conçoit un calculateur mécanique, la machine arithmétique 1660 Formalisation musicale A. Kirchrner conçoit une machine à composer, l’Arca Musirithmica 1787 Formalisation musicale W.A. Mozart propose un algorithme de composition de menuets, le Musicalisches Würfelspiel.

L’utilisateur lance les dés pour ordonner des fragments musicaux précomposés 18e –19e siècles.

Technique/ Musique

Suite aux travaux de R. Fludd, et J. de Vaucanson, réalisation de différents modèles d’automates musicaux mécaniques et de boîtes à musiques. Après 1801, application des cartons perforés du métier Jacquard au séquençage musical (limonaires, orgues de barbarie, pianos mécaniques)

1837-44 Technique Morse invente le télégraphe électrique 1842 Informatique Ada Byron, comtesse de Lovelace pressent les applications diversifiées pour la musique, des

différents calculateurs mécaniques conçus par Charles Babbage à partir de 1822, en particulier l’Analytical Engine de 1833-42. Ce dernier projet utilise les cartons perforés Jacquard et invente la notion de programme

1847 Informatique G. Boole publie The Mathematical Analysis of Logic, base, avec An investigation of the laws of thought, 1854, de la logique moderne (algèbre booléenne) et des travaux en informatique

1856 Musique Expérimentations de H. Helmholtz sur la synthèse acoustique des voyelles. 1869-78 Technique C. Cros et T. Edison inventent l’enregistrement acoustique 1876 Facture instrumentale Musical Telegraph de E. Gray 1876-77 Technique A. Bell, E. Gray et B. Hughes inventent le téléphone et le microphone 1896-1901

Technique Invention de la T.S.F. par G. Marconi

1897-1906

Facture instrumentale Invention du synthétiseur et séquenceur Telharmonium par T. Cahill

1900-20 Musique Apparition et développement du jazz 1900-30 Technique Développement de la radiophonie et de son matériel de base (amplificateur, filtre, potentiomètres,

oscillateur…) 1906 Technique/

Facture instrumentale Invention de la lampe triode par L. De Forest, suivi par deux instruments de musique en 1915

1908 Musique 3e quatuor à cordes d’A. Schönberg, début de sa période atonale 1910-50 Facture instrumentale Plusieurs compositeurs utilisent les pianos mécaniques pour enregistrer et/ou reproduire leur

musique. C. Nancarrow en fera sa spécialité à partir de 194813 1920 Facture instrumentale Aetervox de Lev Theremin, antennes musicales générant un son par hétérodynation, principale

technique de la radiophonie 1920 Technique Invention du disque noir (en laque puis en vinyle) 1920-40 Musique Popularisation du blues, du jazz, du country/western et de la musique hawaïenne 1921 Formalisation musicale Premières pièces dodécaphoniques d’A. Schönberg, après des essais assez différents de M. Hauer. Il

sera rapidement suivi par A. Webern, A. Berg, … 1927-35 Informatique Différents prototypes du Differential Analyzer de V. Bush (MIT), calculateurs (pré-ordinateurs)

analogiques électromécaniques 1927-34 Facture instrumentale Premiers prototypes de guitare électrique solid-body L. Paul et Vivatone de L. Loar 1928 Facture instrumentale Premier modèle d’Ondes Musicales de M. Martenot (version à clavier définitive, 1937) 1930 Facture instrumentale Orgue de Givelet et Coupleux. Synthèse additive pilotée par bande perforée 1930 Facture instrumentale Trautonium de Trautwein suivi en 1949 du Mixturtrautonium, synthétiseurs simples 1932 Facture instrumentale Gnome de I. Eremeef, générateur à roues phoniques 1932 Facture instrumentale Piano électronique de B. Miessner 1932 Facture instrumentale Rhythmicon de H. Cowell, L. Theremin et B. Miessner. Machine à rythmes complexes, une variante

de boîte à rythme 1934-39 Facture instrumentale Différents types d’orgues et pianos électriques par O. Vierling. Premières applications du diviseur de

fréquences 1935 Technique Premiers prototypes du magnétophone à bande par AEG (recherches débutées dès 1924). Ne

deviennent disponibles qu’après 1945 1936 Facture instrumentale Premiers modèles commerciaux de guitares électriques (Fender, Gibson et Rickenbacker, type steel-

guitar) et violons électriques (Dobro, Loar) 1936 Facture instrumentale Singing keyboard de F. Sammis, un prototype d’échantillonneur analogique 1937 Facture instrumentale Orgue électrique par L. Hammond et B. Miessner 1937 Facture instrumentale Premiers instruments de H. Bode (melodium, orgue Warbo…)

13 La vie et l’œuvre de cet Américain très singulier, proche de Carter et fortement influencé par Cowell et le piano préparé

de Cage, est résumée dans http://home.earthlink.net/~kgann/cnlife.html.

Page 5: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

1939 Facture instrumentale Orgue entièrement électronique de la firme Allen 1939 Informatique Premier calculateur électronique à lampes, l’ABC de J.V. Atanasoff14 1939 Technique Vocoder et Voder de H. Dudley v. 1940 Musique Électrification des guitares blues 1941 Facture instrumentale Ondioline de G. Jenny 1943 Informatique Colossus, premier modèle d’ordinateur par les anglais M.A. Newman, T.H. Flowers et A. Turing.

Cette machine est développée pour les services de décryptage durant la guerre 1946 Musique Début des cours d’été internationaux sur les nouvelles musiques à Darmstadt ; institution rapidement

investie par la génération née en 1920 1946-48 Facture instrumentale Premiers prototypes du Rhythmate de H. Chamberlin, un ancêtre du Mellotron et de l’échantillonneur 1946-52 Informatique Premiers ordinateurs numériques 1947 Technique Mise au point du transistor v. 1947 Formalisation musicale Milton Babbitt compositeur et théoricien américain de formation mathématique formule une version

du sérialisme intégral 1947-49 Facture instrumentale Pre-Piano de H. Rhodes et Wurlitzer Electronic Piano de B. Miessner 1947-49 Facture instrumentale Melochord de H. P. Bode, générateur de sons 1948 Facture instrumentale Free Music Machine de P. Grainger et B. Cross, oscillateurs à contrôles automatisés 1948 Facture instrumentale Electronic Sackbut de H. LeCaine, synthétiseur à tensions de commande 1948 Informatique Calculateur SSEC d’I.B.M. Il sera suivi par le modèle 701 (1952), premier ordinateur de cette

compagnie, puis par les premiers modèles à transistors (1955), du disque dur (RAMAC, 1956) et du langage FORTRAN en 1957

1948 Informatique Théorie de l’Information de C. Shannon. Abraham Moles tente dès les années 1950 d’en tirer des conclusions esthétiques15

1948 Informatique Théorie cybernétique de N. Wiener 1948 Musique Musique concrète de P. Schaeffer, Paris. Intuitions d’un instrument de musique « le plus général qui

soit », un type d’« échantillonneur » avant la lettre 1948 Technique Premiers disques microsillons 1949 Formalisation musicale Modes de valeurs et d’intensité d’O. Messiean, bientôt suivis des autres pièces strictement sérielles

(série généralisée) de P. Boulez, K. Stockhausen, H. Pousseur, B. Maderna, …Période de la table rase et d’intenses débats théoriques

1951 Facture instrumentale Basse électrique Precision de L. Fender, croisement de contrebasse et de guitare électrique, suivie en 1970 du modèle fretless

1951 Informatique A0, premier langage informatique assembleur (compilé) par G. M. Hopper 1951 Musique Fondation du studio de musique électronique par H. Eimert et R. Bayer, Cologne. L’influence de W.

Meyer-Eppler est importante depuis 1948 1952 Musique Fondation du studio de Tape Music de l’U. de Columbia, V. Ussachevsky et O. Luening, New York 1953 Musique Fondation du Studio de Phonologie de la Rai (L.Berio et B. Maderna, Milan) 1954 Facture instrumentale Orgue électrique modèle B-3 de Hammond, ébauche de synthèse additive en direct 1954-56 Musique Premiers disques d’Elvis Presley, Chuck Berry, Carl Perkins, J. L. Lewis… 1955-64 Facture instrumentale Synthétiseurs RCA de H. Belar et H. Olsen, synthèse des sons et séquençage 1956 Informatique Leprechaun, premier ordinateur de seconde génération, à transistors, Bell Laboratories. Cette

seconde génération se généralisera entre 1959 et 1964 1955-57 Informatique musicale Musique informatique (L. Hiller, U. of Illinois, M. Mathews, Bell Laboratories)16 1956-57 Musique Gesang der Jünglinge, de K. Stockhausen, musique électroacoustique avant la lettre diffusée sur 5

haut-parleurs 1958 Musique Poème électronique de E. Varèse, au pavillon Le Corbusier (Xenakis) de l’Exposition Universelle de

Bruxelles 1958 Musique Formation des Beatles 1958 Technique Premiers prototypes de circuits intégrés 1958 Informatique Développement du langage Algol suivi des langages Cobol, 1959, Lisp, 1959, et de nombreux autres

langages de haut niveau comme Basic, 1965, Pascal, 1968, Unix, 1969, Prolog, 1972, ou C, 1972 1959-64 Facture instrumentale Premiers synthétiseurs modulaires analogiques de H. Bode, D. Buchla, R. Moog, P. Ketoff v.1960 Musique Musiques électroacoustiques (France, Allemagne, Italie, Angleterre, USA…) 1961 Informatique CTSS, premiers ordinateurs en temps partagé, F. Corbato, MIT 1963 Facture instrumentale Doncamatic Da-20 de Korg, première boîte à rythmes japonaise 1963 Informatique Première souris informatique par D. Englebart, spécialiste de l’interface homme machine 1964 Facture instrumentale Piano électrique Fender-Rhodes

14 Le site http://www.scedu.umontreal.ca/sites/histoiredestec/histoire/tdmhiste.htm propose une histoire concise de

l’informatique. 15 Abraham Moles, Théorie de l’information et perception esthétique, Paris, Denoël-Gonthier, coll. « médiations », 1/1958,

2/1972, 327 pages. Ce chercheur a aussi collaboré avec P. Schaeffer au début des années 1950. 16 Ils auraient précédés par des australiens travaillant isolément dès 1950-51. Voir Paul Doornbush « Computer Sound

Synthesis in 1951 : The Music of CSRIAC » in Computer Music Journal, vol. 28, no 1, printemps 2004, pp 10-25.

Page 6: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

1964 Facture instrumentale Développement du Mellotron, un échantillonneur à bandes magnétiques 1964 Informatique Premiers ordinateurs de troisième génération à circuits imprimés. Parmi les ordinateurs de début de

troisième génération, mentionnons l’IBM 360, l'Univac 1108, le Honeywell 200 ou le G.E. 400 1965 Msique Vladimir Ussachevsky détermine la forme ADSR du générateur d’enveloppe, Electronic Music

Center 1966 Informatique musicale Fondation par Xenakis de l’EMAMu. 1966-70 Musique Jimi Hendrix révolutionne le jeu et le son de la guitare électrique. Énormes développements du

traitement du son (pédales d’effets) et de son amplification 1966-68 Informatique musicale Langage informatique Music V 1967-68 Musique M. Subotnick compose Silver Apples of the Moon sur un système Buchla et W. Carlos enregistre

Switched-on Bach sur un système modulaire Moog 1967-72 Informatique musicale Début de l’informatisation du contrôle informatique de modules sonores analogiques (Projet

GROOVE, Studio EMS, Buchla, Utrecht,… ) 1969 Informatique musicale Interface graphique pour Music V Risset et Ruiz 1969-70 Facture instrumentale VCS3 d’EMS, ARP Odyssey et 2600 et Minimoog, premiers synthétiseurs compacts 1969-72 Musique Premiers albums de jazz-rock : M. Davis, H. Hancock, C. Corea, F. Zappa, Weather Report… 1970 Informatique Premiers microprocesseurs Intel 1970 Informatique Mini-ordinateurs, type DEC PDP-10 1970 Informatique Xerox fonde le laboratoire PARC d’où sortiront un grand nombre d’innovations associées plus tard à

la micro-informatique : langage graphique et interactif, 1972), traitement de texte, icônes, menus, réseau Ethernet, impression laser, …

v. 1970 Facture instrumentale Premiers concerts significatifs avec haut-parleurs multiples (Exposition d’Osaka, S. Martirano, GMEB, ….)

1971 Facture instrumentale Orgue numérique Allen 1971 Informatique Commercialisation des premiers micro-ordinateurs comme le MCS-4 d’Intel, le Micral, 973 ou

l’Altair, 1975 1971-72 Informatique musicale Amorce des travaux sur l’informatique musicale au GRM 1974 Facture instrumentale Premier concert de l’Acousmonium, le grand orchestre de haut-parleurs du GRM 1974 Informatique musicale Création de l’IRCAM 1976-81 Informatique musicale Synthétiseurs numériques 4A, 4B, 4C et 4X développés à l’IRCAM 1977 Informatique Ordinateur Apple II 1977 Informatique musicale Synthétiseur numérique Synclavier, NED. Les systèmes UPIC, 1977, du CEMAMu SYTER, 1979, du

GRM et ceux de Yamaha, GS1, 2, 1982, suivront rapidement 1978-79 Informatique Premiers logiciels tableurs (Visicalc) et traitements de textes commerciaux (Wordstar) 1979 Facture instrumentale Fairlight CMI, premier échantillonneur numérique à clavier, suivi de près par le Synclavier II, 1979,

l’Emulator de E-Mu, 1981, le Waveterm de PPG, 1982, le Mirage de Ensoniq, 1984 1979 Informatique musicale Article de H. Alles (Bell Labs) sur un oscillateur numérique dans le Computer Music Journal 1981 Informatique MS-Dos de Microsoft à partir de langages des années 1974-75, suivi en 1985 de Windows 1982 Informatique Langage graphique Postscript d’Adobe 1982-83 Facture instrumentale Norme MIDI et synthétiseur Yamaha Dx-7 1983 Informatique Invention de la tablette graphique société Wacom, Japon 1983 Informatique Le langage C est développé en programmation « orientée objet » par B. Stroustrup 1984 Informatique Ordinateur Macintosh d’Apple 1986 Informatique musicale Premiers prototypes commerciaux de synthèse virtuelle de type synthétiseur (PPG Realizer) 1988 Informatique musicale Logiciel Max, de M. Puckette à L’Ircam 1988 Informatique musicale Logiciel MacMix, de A. Freed. Banc de montage audio numérique virtuel sur ordinateur Macintosh 1989 Informatique musicale Logiciel Turbosynth de Digidesign, synthèse modulaire virtuelle. Ce logiciel sera suivi des bancs de

montage audio numérique Sound Tools, 1989, puis Pro-Tools, 1992 Les développements musicaux et instrumentaux suivent de près les développements techniques, voire les précèdent17.

3 Débuts de l’informatique musicale 1955-65 « Musique par ordinateur : la première décennie, 1955-65

Rêve : un esprit scientifique/un cœur artistique Réalité : premières preuves d’existence »18

17 Voir les articles de John Chowning et de Iannis Xenakis in Tod Machover (ed) Le compositeur et l’ordinateur, Paris,

Ircam/Centre Georges Pompidou, 1981, pp 13-45. 18 F. Richard Moore, op. cit., p. 27.

Page 7: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

L’informatique musicale apparaît dans ce contexte général d’interrogations profondes sur la musique, de recherches créatives, d’ébullition technologique et de curiosité scientifique, juste après les premiers essais de musique concrète et électronique (1948-55). Elle en est réellement une démarche jumelle.

3.1 Naissance de l'informatique Les premiers calculateurs électroniques numériques19 sont conçus et mis au point dans les années 1943-44. L’ordinateur Eniac, l’«Electronic Numerical Integrator and Computer » est développé pour l’armée20 à l’Université de Pennsylvanie. Il s’agit du couronnement de plusieurs décennies de recherches en logique, cybernétique et sur la théorie de l'information, sans oublier les siècles de recherches sur les automates ou les intuitions de Babbage et Lovelace21. En pratique, les ordinateurs sont développés pour aider la marine américaine à résoudre ses problèmes balistiques, et pour permettre au « Projet Manhattan » et au laboratoire secret de Los Alamos de préparer l’arme atomique22. Ce monopole militaire prend fin avec la deuxième guerre et les premières machines civiles apparaissent. Après l’Eniac, Eckert et Mauchly23 conçoivent en 1947 l’Univac et le Binac, premier ordinateur à calcul binaire tandis qu’International Buisness Machines lance en 1953 son ordinateur modèle 70124. Cette première génération d'ordinateurs est une réussite exemplaire : leur architecture matérielle — processeur central, mémoire de stockage, mémoire vive —, pensée par le mathématicien et cybernéticien John von Neumann, demeure encore le modèle courant. À cause de la domination américaine sur la technologie informatique à cette époque, la musique par ordinateur est initialement un phénomène outre-Atlantique. Elle constitue, comme beaucoup de vecteurs de la culture savante du nouveau continent, un phénomène académique et institutionnel, milieu bien protégé des vicissitudes commerciales ou des nécessités de rayonnement vers un large public25. Ceci implique une disponibilité d'argent, de matériel, et surtout une certaine paix pour travailler ainsi qu'une ouverture d'esprit pour accueillir les résultats26. De plus, c’est précisément parce que ces recherches sonores se font dans des grandes institutions scientifiques américaines que les chercheurs en musique ont très rapidement accès à des ordinateurs. Deux types d'institutions se munissent du nouvel outil : les centres de recherche universitaire et les centres privés de recherche. Comme pour répondre à ce double contexte, deux volets historiques principaux de l'informatique musicale naissent : le travail sur la formalisation et la compréhension des pensées musicales et compositionnelles à l’Université de l’Illinois et le développement de diverses techniques de synthèse du son aux laboratoires Bell.

3.2 Composition musicale assistée par ordinateur Si l’on songe à l’importance de l’école sérielle à cette époque, on ne s’étonne pas que la première application musicale de l’ordinateur concerne la formalisation de l’écriture musicale.

19 Voir le site sur V. Bush de MIT : http://www.maxmon.com/1927ad.htm. 20 Voir la page de W. Stucki, http://mypage.bluewin.ch/w.stucki/Eckert.htm. 21 Pour plus de détails, consulter le chapitre 4 du livre de Pierre Lévy, op . cit . 22 Le quasi-ordinateur anglais Colossus, 1943, est développé pour le décryptage des communications nazies durant la

campagne d’Angleterre. 23 Voir W. Stucki,, loc. cit. 24 Voir http://inventors.about.com/library/inventors/blibm.htm. 25 Ce qui n’est pas sans risque, comme le souligne dès 1938 Theodor W. Adorno, Philosophie de la nouvelle musique,

Paris, Gallimard, coll. « Tel », 1962, pp 15-16. 26 J. C. Risset en a été très impressionné en 1964. Joel Chadabe, Electric Sound, op. cit. p. 111.

Page 8: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

Un lien naturel s’établit entre la pensée musicale formaliste post-schönbergienne et l’usage de l’ordinateur. Le compositeur Herbert Brün27 décrit ainsi son travail antérieur à l’ordinateur :

« J’ai débuté une partition pour orchestre pour laquelle j’utilisais la méthode d’avoir un tableau et des matériaux pré-compositionnels affichés aux murs, sur mon bureau et sur le plancher — à un point absurde d’élaboration. Je me suis retrouvé, comme on pouvait le prévoir, totalement coincé — confus. Ce n’était pas vraiment un état malheureux mais c’était une situation intrigante.»28.

Paul Lansky, élève de Milton Babbitt29, présente la solution :

« Je me suis impliqué avec les ordinateurs à une époque et un lieu où la motivation première de le faire était que nous croyions que ce serait un moyen d’exploration plus profond des propriétés de la musique de douze sons. L’idée était qu’avec des ordinateurs, on pouvait procéder à des manipulations très complexes des structures de séries d’intervalles, de rythmes, de timbres et d’autres choses que l’on ne pourrait jamais faire avec des instruments ».30.

À la même époque, le synthétiseur RCA de Belar et Olsen comporte un séquenceur analogique programmable par papier perforé. Cet instrument, intermédiaire entre le synthétiseur au sens moderne du terme et l’ordinateur musical, permet au compositeur sériel Babbitt la composition de plusieurs œuvres hautement structurées (Philomel, Vision and Prayer…). Ce n’est pas encore l’ordinateur, mais la pensée de ce compositeur lui a fait rechercher les outils disponibles. On pourrait aussi évoquer la pièce de Iannis Xenakis Metastaseis, œuvre instrumentale écrite « à la main » en 1953-54 à partir de procédures stochastiques puis confiée à un orchestre. En 1955-56, Lejaren Hiller et Leonard Isaacson de l’Université de l’Illinois programment l’ordinateur Illiac31 directement en langage machine binaire pour composer un quatuor à cordes, le fameux Illiac Suite for String Quartet. Le compositeur fournit un algorithme à l'ordinateur et retranscrit les résultats de calcul pour quatuor à cordes. Plus précisément, Hiller formalise les règles du traité de contrepoint de J.J. Fux, Gradus ad Parnassum. L'ordinateur calcule certaines solutions à des problèmes musicaux, ainsi que certaines permutations contrapuntiques32. Ce choix est très révélateur : comme l’évoque la citation de Lansky, le sérialisme a cours aux États-Unis, bien que sous une forme particulière, et des musiciens comme Babbitt, Elliot Carter ou Hiller en sont fortement imprégnés. Autre signe des temps33, Hiller introduit le hasard dans sa pièce en mêlant les premiers essais de composition par règles34 et une application de l'aléatoire ou des chaînes de Markov à la construction musicale35.

27 Compositeur américain d’origine allemande, 1918-2000. Il travaillera à Paris et Cologne avant de s’installer à

l’Université de l’Illinois. Voir http://www.herbertbrun.org/BrunBio.html. 28 Cité dans Roads, op. cit. pp 833-834. 29 Un des principaux compositeurs et théoriciens sériels américains, né en 1916. Élève de R. Sessions (un proche de

Copland et élève de Bloch),http://www-camil.music.uiuc.edu/Projects/EAM/babbitt.html. Lansky sera très actif dans le domaine à partir des années 1970.

30 Comme on le verra un peu plus bas, il nuancera assez rapidement ce postulat un peu naïf. Joshua Cody « An Interview with Paul Lansky » in Computer Music Journal, vol. 20,no 1, p. 19.

31 Voir http://ems.music.uiuc.edu/history/illiac.html. 32 Pierre Schaeffer, « La musique et les ordinateurs », in La Revue Musicale, no 268-269, Paris : Éditions Richard-Masse,

1970, pp 66-67. 33 Le concept de l'aléatoire possède une longue histoire, mais il est devenu central dans la théorie de l'information : c’est le

bruit. 34 C’est une application des « méthodes de Monte-Carlo » récemment développées. 35 En toute logique, il travaillera plus tard avec le pionnier de l’alea, John Cage, 1968. Pierre Schaeffer, ibid.

Page 9: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

Malgré son ouverture conceptuelle et son allure de manifeste, une des premières applications parfaitement rigoureuses d'un système de contraintes se solde par un échec musical. Point de repère historique important, la pièce n’est pas un grand succès esthétique. Cela est dû d’une part aux limites des connaissances de cette époque sur la nature très particulière de la qualité esthétique. En effet, les règles mises au point par Hiller sont probablement trop simples pour donner un résultat musical probant. Pour reprendre la formule de Babbitt : « Les règles du contrepoint nous disent ce qu’il ne faut pas faire, elles ne nous disent pas ce qu’il faut faire »36. Dans la bouche même d'un des plus grands promoteurs du sérialisme, cette conception formelle stricte de la musique est prise en défaut. Quarante ans après, Moore analyse la situation :

« Le rêve de Lejaren Hiller n’était pas seulement de composer de la musique avec un ordinateur, mais de comprendre comment pense le compositeur et même ce qui fait qu’un morceau de musique est bon et un autre pauvre. Parce qu’un tel travail n’avait pas encore été tenté, le rêve dépassait clairement (et typiquement) toute possibilité de réalisation. Ce problème se révéla beaucoup plus difficile qu’on ne pensait avant que l’on tente de le résoudre, comme le font souvent les problèmes. Néanmoins, le rêve n’était rien moins que grandiose — un regard en profondeur sur l’intelligence humaine, dans ce cas sur l’intelligence musicale. L’ordinateur permit une expérience que la plupart des gens qualifieraient de ratée (si l’on écoute la musique résultante), mais j’argumenterais que l’expérience a réussi à produire un des rêves les plus brillants concernant la musique »37.

D’autre part, l’effet de contradiction entre la modernité de la recherche et le traditionalisme des sonorités joue aussi un certain rôle : la volonté de renouvellement musical profond n’est pas encore complètement assouvie car les sons trop connus s’opposent aux idées musicales inouïes. C’est le cas inverse du problème affectant les néo-instruments38. Face à ces problèmes, deux réactions naissent. Les uns préconisent une poursuite du travail et un approfondissement des conceptions formelles de la musique tandis que les autres, la plupart, décident de ne pas déléguer les aspects compositionnels à une machine. Si le résultat musical n'est guère encourageant, la méthode de travail s'avère fondamentale. Dès ces débuts, la similarité de pensée entre les compositeurs formalistes et les informaticiens favorise un rapprochement de ces deux disciplines. Les travaux de Hiller sont suivis de près par toute une génération de compositeurs américains et européens : principalement Brün, John Myhill, James Tenney, Pierre Barbaud, Michel Phillipot, Xenakis39 et Gottfried Michael Koenig40. Deux d’entre eux sont des compositeurs sériels proches de l’école de Cologne tandis que les Français effectuent des développements personnels de la pensée dodécaphonique41. En dépit de son antériorité et probablement à cause des déceptions musicales rencontrées de prime abord, cette voie ne sera pas la plus féconde avant les années 1980. C’est une seconde tentative qui aura le mérite d’implanter durablement l’ordinateur dans la vie musicale.

3.3 Synthèses sonores Un ingénieur en télécommunications, et violoniste amateur, Max Mathews, entreprend en 1957 de nouvelles et importantes recherches aux laboratoires de la compagnie de téléphone

36 Pierre Schaeffer ibid. p.67. 37 F. Richard Moore, op. cit. p. 28. 38 Sons modernes et vieille musique pour les néo-instruments et l’inverse pour l’ordinateur. 39 Xenakis entreprend en 1953-54 son travail sur la stochastique : Musiques Formelles, Paris, Stock, coll. « Musique », 1981, p. 19. Il poursuivra ce genre de démarche avec les premiers ordinateurs disponibles en s’associant à IBM-France pour la composition des pièces de la série « ST »puis en fondant son propre centre, l’EMAMu (CEMAMu) en 1966. 40 Curtis Roads The Computer Music Tutorial, op. cit., pp 830-833. 41 L’influence de René Leibowitz est importante ici. C. Deliège op. cit., pp 43-54

Page 10: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

Bell (AT&T) à Murray Hill, non loin de New York. Il est entouré d’une petite équipe42. Tout comme ceux de certains grands studios électroniques européens43, les travaux de ce groupe ont officiellement comme objectif central l'analyse et la synthèse de la parole plutôt que de la musique44. Toutefois, les musiciens ont une place réelle et, très tôt, certains d'entre eux abordent des questions musicales. À partir de 1961, les compositeurs Tenney, puis Risset45 et Moore se joignent à l'équipe de Mathews. Ce groupe de travail élabore quelques concepts et outils fondamentaux de l'informatique musicale : les principes de la synthèse modulaire et de l'échantillonnage musical, les convertisseurs analogiques numériques ainsi que toute une famille de logiciels de synthèse des sons, la famille Music. On leur doit également — et peut-être surtout — le second mythe fondateur de l'informatique musicale. Par quelques démonstrations mathématiques et techniques, Mathews démontre que la synthèse de tout son reproductible par haut-parleur est possible, à condition de le décrire à l'ordinateur :

« Tous les sons ont une fonction de pression et tout son peut être produit en générant sa fonction de pression. Donc, si nous pouvons développer une source de pression capable de produire n’importe quelle fonction de pression, elle sera capable de produire n’importe quel son, y compris la parole, la musique et le bruit. Un ordinateur numérique, plus un programme, plus un convertisseur numérique analogique, plus un haut-parleur peut s’approcher d’une telle capacité »46.

Cette déclaration, pourtant prudente, est rapidement saisie par l'inconscient collectif : « L’ordinateur peut créer tous les sons !! ». Cet espoir suscite passions et rejets, déceptions amères et créativité intense. Les premiers travaux de Mathews lui permettent de réaliser des sons de façon précise ; c’est la première preuve tangible des possibilités musicales de l’ordinateur. Le psychologue de la perception Newman Guttman a l’honneur de la première pièce : il synthétise In a Silver Scale en mai 1957. Cette petite composition monodique explore les possibilités de l’intonation juste et d’autres types d’intonations47. L’interface demeure encore fruste : le synthétiste doit perforer des cartes pour indiquer au logiciel Music I de synthétiser telle fréquence, avec telle intensité et telle durée. Le spectre est fixe et pauvre — une forme d’onde triangulaire — mais la fréquence et l’amplitude peuvent varier dans le temps grâce à des enveloppes. Dans un texte plus ancien, les notes de l’un des premiers disques de musique informatique, Music from Mathematics, Mathews développe son projet, un rêve non moins grandiose que celui de Hiller :

« Cette nouvelle combinaison « instrumentale » n’est pas simplement un gadget ni une machine compliquée capable de faire de nouveaux sons. Elle ouvre la porte à l’exploration et la découverte de plusieurs sons nouveaux et uniques. Cependant, son utilité musicale et sa validité vont bien au-delà. Avec le développement de cet équipement aux Laboratoires de Bell Telephone, le compositeur aura le bénéfice d’un système de notation tellement précis que les générations futures sauront exactement comment il avait l’intention que sa musique sonne. Il aura à sa disposition un « instrument » qui est impliqué directement dans le processus créatif. Dans les mots de trois des compositeurs dont les œuvres sont entendues dans cet enregistrement, la musique de l’homme a toujours été limitée au plan acoustique par les instruments sur lesquels il joue. Ce sont des mécanismes qui ont des restrictions physiques. Nous avons fait des sons et de la musique directement

42 Le psychologue expérimental Newman Guttman, l’acousticien John Pierce puis l’informaticienne Joan Miller. 43 Les différents studios de « phonologie », voire de « sonologie ». 44 Joel Chadabe, op. cit., p. 114. 45 Voir : http://www.olats.org/pionniers/pp/risset/risset.shtml. 46 Max Mathews The Technology Of Computer Music, Cambridge, MIT Press, 1969, p.2. 47 Curtis Roads, The Computer Music Tutorial, op. cit., pp 87-89.

Page 11: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

avec des nombres, en surmontant les limitations conventionnelles des instruments. Ainsi, l’univers musical n’est désormais circonscrit que par les perceptions de l’homme et sa créativité »48.

3.3.1 L'ordinateur peut-il vraiment faire tous les sons ? Le passage de cette magnifique idée à la réalité musicale n’est pas simple.

3.3.1.a Problèmes acoustiques et cognitifs Les théories acoustiques de la première moitié du siècle constituent le point de départ de Mathews. En effet, J. B. Fourier a démontré mathématiquement que tout signal périodique complexe peut se décomposer en une somme de signaux simples, ce qu’Ohm et Helmholtz appliquent au son et démontrent en laboratoire. Une fois les questions de timbre « élucidées » au XIXe siècle par ces explications spectrales, on croit alors assez naïvement que le phénomène sonore se réduit à une question d'addition pondérée de partiels plus ou moins harmoniques. Plus tard, en faisant appel aux plus récentes théories de l’information ou aux théories phonologiques, on dira qu’il s’agit de bruits et autres sons riches plus ou moins filtrés. La première approche — celle du « jeu de construction » — donne ce que l’on appelle la « synthèse additive » tandis que la seconde — la « sculpture » du bloc initial par filtrage — se nomme « synthèse soustractive »49. Ces premières tentatives de synthèse font déchanter. Pour expliquer à l’ordinateur comment synthétiser un son, il faut savoir en détail et dans un temps fini décrire le son voulu, ce qui, en pratique, se révèle à peine plus simple que d’expliquer à l’ordinateur comment composer. En particulier, la vision spectrale helmholtzienne s'avère insuffisante pour une synthèse imitative crédible : tel dosage d'harmoniques censé recréer un violon ou une trompette diffère à peine de celui qui reproduit une flûte ou un hautbois50. Aucune explication classique, même tempérée par les premières ébauches d'enveloppes temporelles, n'assure une synthèse efficace. Les sons construits à partir de la pure théorie se révèlent trop pauvres, trop statiques. De plus, une telle démarche, bien qu'inscrite dans la suite logique de l'esthétique sérielle ou, plus généralement du courant musical formaliste, se révèle nouvelle pour les compositeurs. Le seul volontarisme esthétique n'a pas préparé le compositeur à devenir luthier, technicien, informaticien et interprète. La « plus value » apportée à la musique par l'interprétation humaine n’est possible que si l’on programme la machine dans ce sens, mais cela ne va pas sans mal :

«L’ obligation faite au compositeur de décrire les moindres inflexions, les plus petites variations des sons à calculer se heurte à une difficulté majeure qui est notre incapacité de décrire ce qui constitue l’interprétation »51

On peut encore argumenter, comme le fait Lansky, que l’expérience de l’informatique musicale contribue, comme l’expérience du studio électronique, au passage du sérialisme intégral « dur » aux post-sérialismes nettement plus souples et attentifs à la complexité sonore :

« La chose intéressante pour moi était qu’à partir du moment où j’ai commencé à le52 faire, j’ai perdu mon intérêt. C’était probablement l’ordinateur plus que tout autre chose qui m’éloigna de la musique de douze

48 Cité dans F. R. Moore, op. cit. p. 29. 49 Remarquez que les informaticiens de la musique reprennent exactement les paradigmes synthétiques des musiciens de

Cologne. 50 Pierre Schaeffer Traité des objets musicaux, Paris, Seuil, 2/1977, chapitres X et XI. 51 Marc Battier, Éléments d'informatique musicale, non publié, Paris. 1985, p. 57.

Page 12: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

sons parce qu’au moment où j’ai commencé à l’utiliser, j’ai remarqué que tout ce que je faisais sur l’ordinateur était beaucoup moins intéressant que les sons les plus primitifs que quelqu’un pouvait produire en raclant un violon. En conséquence, construire des relations de hauteurs complexes devint beaucoup moins exigeant et excitant que d’essayer d’avoir prise sur les entrailles du son musical lui-même »53.

3.3.2 Un travail laborieux Le second grand problème est pratique, c’est une question d’interface. Citons un vétéran :

« Pour le restant de cette première décennie de la musique informatique, la plupart du travail eut lieu dans quelques laboratoires et universités où des ordinateurs coûteux et difficiles à utiliser étaient disponibles à cette fin. Les programmes étaient typiquement écrits en langage assembleur en utilisant des cartes perforées ou des rubans en papier. Faire fonctionner un seul programme d’ordinateur nécessitait souvent une journée entière ou plus et les résultats étaient généralement décevants, en supposant que l’ordinateur lui-même fonctionnait correctement (ce qui souvent n’était pas le cas). Le résultat était généralement imprimé sur du papier informatique. Si l’ordinateur produisait un son, c’était sous la forme d’une grosse bande magnétique pour ordinateur contenant des millions de nombres représentant le son sous forme numérique. Si le programme de synthèse sonore réussissait à produire la bande (ce qui pouvait souvent être déterminé en regardant la bande défiler durant l’exécution du programme), il devait ensuite être transporté vers une autre machine conçue spécialement pour fournir ces nombres à un convertisseur numérique analogique pour convertir ces nombres en tensions électriques. Ce signal pouvait alors être traité et envoyé à un haut-parleur »54.

Qu'en est-il de l'impact de ces nécessités sur la démarche musicale ? La grande lourdeur de la mise en oeuvre de tout son informatique impose une approche très rationnelle aux créateurs. Ceux-ci doivent penser à tout, tout de suite, la machine n'exécutant que des ordres précis. Cela demande aussi temps et patience :

« Des échelles temporelles55 supérieures à 1 nécessitent l'enregistrement des échantillons sur une bande magnétique numérique, un rembobinage et la lecture du ruban par le convertisseur. Un délai égal ou supérieur à la durée du son est inhérent à ce procédé. Des échelles temporelles de 1 à 50 sont parfaitement utilisables. À 50, un délai d'une heure est requis pour calculer une minute de son. Une heure paraît longue si vous attendez personnellement après l'ordinateur; elle n'est rien si vous êtes à la maison en train de dormir pendant que l'équipe de nuit lance le problème. Avec une échelle de 50, 1600 µsec sont disponibles pour calculer chaque échantillon. 50 multiplications ou plusieurs centaines d'additions peuvent être menées pendant ce temps. Même si beaucoup peut être fait, ce nombre d'opérations ne représente pas une masse copieuse et il doit être utilisé efficacement. Des échelles temporelles de 50 à 1000 deviennent si gourmandes en temps et si coûteuses que même l'expérimentateur le plus forcené s'arrête pour se demander si la valeur des sons justifie le temps et l'argent. Avec une échelle de 1000, 20 minutes de temps d'ordinateur est nécessaire pour chaque seconde de son. Ce doit être une seconde remarquable pour rendre cet effort valable » 56 .

Le rêve initial heurte de plein fouet la réalité :

« Les résultats appartenaient typiquement à l’une de ces catégories : (1) du silence (le résultat le plus fréquent), (2) un long bruit (un autre résultat commun), (3) un bruit structuré ne ressemblant en rien à ce qui était prévu (généralement le résultat d’une erreur de programmation) ou (4) une son musical pâle, maigre et maladif (obtenu à peu près une fois sur cinq tentatives). Le son était peut-être pâle et maladif et le travail laborieux et péniblement lent, mais ces résultats prouvaient que la musique par ordinateur existait. Maintenant, tout ce qui manquait était des améliorations ! »57.

Le second acte fondateur de l'informatique — celui de la synthèse sonore — est donc lui aussi un échec relatif. À cause des difficultés évoquées, les premières pièces musicales 52 Il parle d’une réalisation sérielle stricte à l’ordinateur. 53 Joshua Cody, op. cit, p. 19. 54 F. Richard Moore, op. cit. p. 30. 55 Échelle temporelle ≡ temps nécessaire pour calculer un son / durée du son 56 Max Mathews, ibid., pp 34-35. 57 F. Richard Moore, op. cit. p.30.

Page 13: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

informatiques ont peu de qualité musicale58. Pourtant, un enthousiasme certain demeure. Cet échec initial donne lieu à une « fuite en avant » générale, très remarquable par sa créativité. Contrairement aux questions compositionnelles, on croit pouvoir résoudre « bientôt » les problèmes de la synthèse sonore. Étant donné que le problème est théoriquement déjà maîtrisé, la « technique » devra bien suivre. Le ton très technique du livre de Mathews59 est caractéristique de cette concentration pragmatique et technique. Une croyance s’installe : « la prochaine version du matériel ou du logiciel saura enfin fournir le son idéal ! ». Après ces débuts utopiques, une grande période de recherches sonores, musicales et informatiques débute.

4 Informatique musicale classique, 1968-85 « Informatique musicale : la deuxième décennie, 1965-75

Rêve : des sons véritablement musicaux Réalité : beaucoup de recherche »60

4.1 Deuxième décennie : de nouveaux ordinateurs et Music V Dans le domaine informatique, les années 1960 voient deux développements importants. D’une part, les ordinateurs passent progressivement de la seconde à la troisième génération. On dispose de machines à circuits intégrés nettement plus rapides, de plus en plus en réseaux et avec des écrans alphanumériques au lieu de systèmes de cartes perforées et de tirages papier. D’autre part, les langages informatiques courants peuvent alors s’améliorer eux aussi. C’est le début des langages informatiques « de haut niveau » comme Fortran, Algol, Lisp, Pascal, C, … Ces améliorations générales permettent aux musiciens informatiques de passer à l’étape suivante.

4.1.1 L'utopie en voie de réalisation : de véritables outils de travail musical Après ses premiers balbutiements, l'informatique musicale évolue rapidement, à la vitesse d'une technologie-phare de notre civilisation :

58 Pierre Schaeffer, qui ne croyait absolument pas à cette tentative, en ricanait en 1970, op. cit. 59 Max Mathews, op. cit. 60 F. Richard Moore, op. cit., p. 30.

Page 14: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

Music IV 1962

B6700 Music V

1973

Music 360 1969

Music 11 1973

CSound 1986-2004

Music V/ Ircam 1977

Music I 1957

Music II 1958

Music III 1960

Music V 1966

Music IVB 1965

Cmusic 1980

Music 4C 1985

Mus10 1966

Music IVBF 1967

Mix 1982

Cmix 1984

MIT

Princeton

Bell Laboratories

MUSCMP 1978

Common Lisp Music

1991

Stanford

UCSD

CDP-Atari 1986

U. York GB

PatchWork/ Open Music 1991-2004

Ircam

Ex. 5. L'arbre généalogique des principaux langages Music N61

Mathews se lance à partir de cette époque dans le développement de langages de programmation qui fournissent aux compositeurs les moyens de créer les musiques recherchées. Voyons les étapes principales de ces corps à corps avec la réalité musicale. En 1958, Mathews accède à un ordinateur de seconde génération plus rapide, un IBM 7094 transistorisé. Il peut développer une nouvelle version de son logiciel, Music II. Ce programme permet une musique à quatre voix et dispose de 16 formes d’ondes différentes, 16 timbres de base62. Cette version plus riche et plus souple permet aux différents membres de l’équipe de synthétiser des œuvres musicales plus intéressantes. Un premier concert de ces « musiques par ordinateur » est organisé à New York en 1958; John Cage est le modérateur des débats qui suivent. Les pièces circulent aussi dans les cercles de curieux à partir de ce moment. Music III est un logiciel très important car il introduit la notion d’unit generator. La programmation du logiciel Music devient alors modulaire : l’usager crée des algorithmes de synthèse sonore en agençant assez librement différents modules spécialisés63. En 1962, le

61 Les lignes grisées témoignent d’une influence secondaire. CSound est encore en cours de développement (Cecilia,

MacCSoud…) et peut-être piloté par Open Music. 62 Curtis Roads, Computer Music Tutorial, op. cit, .p. 89. 63 J. C. Risset voit dans la modularité de cette famille de programmes une source d'inspiration matérielle : « Loin de copier

les structures des synthétiseurs, Music III les a précédés, inspirés », affirme-t-il Robert Moog a visité les laboratoires Bell avant l’invention de son célèbre synthétiseur ; cette méthode précède donc l’invention des synthétiseurs modulaires analogiques. « Musique et Perception », in « quoi, quand comment, la recherche musicale », Tod Machover (ed), Paris, Ircam/Christian Bourgois, coll. Musique / Passé / Présent, p..219.

Page 15: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

langage Music IV, produit de la collaboration de Mathews et Joan Miller, atteint une maturité et une efficacité évidentes. D’une part, ce logiciel est programmé avec un langage « assembleur » plus évolué que les anciens langages machines, le BEFAP. D’autre part, à ce point de l'histoire technologique, les ordinateurs ne sont plus des raretés et la plupart des centres de recherche et des universités en sont désormais dotés. Toutefois, cette floraison technologique engendre une variabilité des plates-formes informatiques. Machines et langages ne sont pas facilement compatibles. Ainsi le MUSICOMP de Hiller, écrit en langage machine spécifiquement pour IBM 7090 n'a rien à voir avec Music IV écrit en assembleur pour un IBM 7094. Pourquoi cette dépendance ? : 1. La puissance et la vitesse de travail de la seconde génération d'ordinateurs demeurent assez modestes ; 2. La synthèse des sons s'avère dès le début une tâche complexe, poussant les machines à leurs limites64. En conséquence, pour utiliser toute la puissance des ordinateurs disponibles, il faut programmer le plus efficacement possible, c'est-à-dire directement dans le code intime de l'ordinateur. Or, ce code de base est lié à la configuration matérielle de chaque ordinateur. Dans ces conditions, pour pouvoir utiliser un logiciel donné, il faut soit disposer du même ordinateur, soit procéder à une réécriture en fonction de la nouvelle machine. En dépit de ces difficultés habituelles pour les questions informatiques complexes, la qualité sonore permise par Music IV et son support matériel amélioré suscite suffisamment d'intérêt pour encourager sa transcription vers de nouvelles machines : Music 10 et 11 pour les PDP-10 et 11 de DEC, Music 360 pour IBM 360, … De tous ces programmes, la version la plus facilement transposable est Music V. En effet, les machines et langages s'étant développés en passant de la seconde à la troisième génération d'ordinateurs, il est désormais possible de programmer presque tout en langage « évolué », beaucoup plus indépendant du matériel. Music V, programmé en Fortran IV, est un succès considérable. Plus de vingt ans après, ce langage constitue toujours l'archétype en la matière, même si les plates-formes matérielles n'ont plus grand-chose à voir avec le GE 645 qui l'a vu naître. Deux facteurs ont contribué à cette diffusion, outre l’intérêt musical de l’outil : 1. Laboratoires Bell donnaient alors gratuitement les programmes à celui qui les demandait65 ; 2. Mathews et son équipe ont rédigé un excellent manuel, qui constitue la seconde partie de The Technology of

Computer Music, livre bien distribué par MIT Press.

4.1.2 Concrètement, la synthèse directe du son ? Après ce premier palier, la problématique se déplace des logiciels vers les interfaces. Compte tenu des possibilités du matériel et de la complexité des problèmes musicaux, Mathews opte pour une informatique très générale et ouverte, en temps différé. Les logiciels reposent — un peu paradoxalement, peut être — sur une vision assez hiérarchique et traditionnelle de la musique : on programme, à l'aide de fonctions de base66, des « instruments de musique » virtuels, possiblement combinés en « orchestres ». Ensuite, un texte musical, une « partition », fournit les indications locales dans un ordre chronologique : la partition précise les notes à jouer, les indications de nuances et les paramètres des processus temporels. 64 Cela n’a guère changé, la puissance accrue des ordinateur permettant de nouvelles approches. 65 F. Richard Moore, op. cit. p 32. Avec le développement de l’approche Open GL, on retrouve depuis quelques années

cette attitude généreuse. 66 Cette approche est une des premières applications historiques de la programmation "orientée objet".

Page 16: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

Gen d’env.

Osc. asortie Forme d’onde

f1

Forme d’enveloppe

Amplitude « kenv »

Fréquence P5

Sortie

Durée P3

Amplitude max. P4

; Orchestre d’un instrument simple

; différents réglages techniques sr = 44100 kr = 4410 ksmps = 10 nchnls = 1 ; algorithme de l’instrument de synthèse additive ; numéro de l’instrument instr 1 ; nom générateur paramètres kenv linseg 0, p4, 1, .1, .7, p3, .7, .1, 0 ; nom générateur amplitude, fréquence, forme d’onde asortie oscili kenv*20000, p5, 1 out asortie endin

; Partition pour l‘instrument simple ; forme d’onde sinusoïdale f1 0 1024 10 1 ; instrument début durée amplitude fréquence ; fondamentale i1 0 10 1 440 ; 3 autres harmoniques i1 0 10 .5 880 i1 0 10 .33 1320 i1 0 10 .25 1760 end

Ex. 6. algorithme de synthèse en notation graphique et son code alpha numérique67

Il s’agit d’un oscillateur, « oscili », avec une enveloppe ADSR « kenv » parfaitement adapté à la synthèse additive classique. La partition génère la forme sinusoïdale et précise que le premier son a une durée de 10 secondes, une amplitude de « 1 » (100%) et une fréquence de 440Hz tandis que les autres sons s’additionnent pour reconstruire les premiers partiels de la série harmonique. Cette figure présente aussi l’algorithme de synthèse de façon graphique. Cette utilisation de symboles standardisés pour les différentes fonctions de ces langages s'est établie à l’époque et demeure aujourd'hui en usage.

4.1.3 Amélioration des interfaces Une nouvelle approche, correspondant aux ordinateurs de troisième génération, à partir de 1964, est le travail en «temps partagé » (shared-time). On dispose cette fois de terminaux alphanumériques dans chaque bureau de travail, l'ordinateur central étant relié à un réseau de 67 Cet exemple est codé en langage CSound, plutôt qu’en Music V à cause de la facilité avec laquelle on retrouve ce premier

logiciel aujourd’hui.

Page 17: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

terminaux personnels. Ainsi, le code du précédent exemple était au début perforé sur des cartes ; il est désormais tapé par l’usager sur un terminal. Toutefois, si la tâche des compositeurs devient un peu plus aisée car les temps d'attente sont moindres et les écrans alphanumériques plus agréables à utiliser que les perforatrices de cartes, les vitesses de calcul atteintes ne permettent pas aux programmes de synthèse un travail instantané. Malgré une amélioration technique certaine, de longs écarts séparent encore la demande d'une action informatique de son résultat sonore.

4.1.4 La course au son de synthèse idéal On doit à Risset et à ses travaux sur la synthèse de sons de trompette, en 1964-6568, une prise de conscience précise que les sons musicaux sont évolutifs plutôt que statiques, ainsi que des propositions informatiques pratiques pour répondre à ces nouvelles exigences de dynamisme sonore. Cela constitue un point tournant pour la qualité des sons de l’ordinateur musical. On peut penser que les solutions de Risset sont de nature technique, mais en fait, il obtient de bons résultats parce qu’il a une bonne oreille musicale et parce qu’il peut tirer une formalisation claire de ce que l’on perçoit en écoutant tel ou tel son vivant et riche69. Il a aussi su expliquer ces intuitions aux acousticiens et informaticiens de la musique et a pu trouver des solutions techniques convaincantes. Le projet informatique passe de l’utopie initiale à la réalité en considérant les exigences de la perception : il est frappant de considérer le nombre de référence à la réalité sonore et à sa perception dans le livre de Mathews70. Par la suite, différents algorithmes de synthèses ont été développés à la recherche d’une qualité sonore de plus en plus indéniable : la communauté de l’informatique musicale tente de relever le sévère défi lancé par Schaeffer lors du colloque de l’UNESCO de 197071. Les programmes de la famille Music étant modulaires, chaque étape de l'évolution de cette technologie musicale laisse des traces sous la forme de modules particuliers72. Les premiers modules préparés par Mathews sont des oscillateurs à formes d’ondes variables, des additionneurs simples, des multiplicateurs et des générateurs d'enveloppes. Ces outils s'inscrivent dans le paradigme de la synthèse additive, le plus proche du modèle spectral des acousticiens. L'étape suivante est l'introduction de divers filtres et générateurs de bruit ou d'impulsions pour la réalisation d'une synthèse soustractive proche des outils et concepts des phonéticiens. Ces deux techniques initiales, malgré leur proximité avec des modèles perceptifs assez intuitifs possèdent des lacunes importantes. La première permet un contrôle soigné au niveau du contenu spectral, mais se prête mal à la production de bruits. La seconde facilite ce travail à partir de sons complexes, mais ne permet pas une très grande précision. Dans les deux cas, l'obtention d'un son complexe et bien contrôlé se paye par des temps de calculs importants et impose une qualité matérielle incontournable et coûteuse73.

68 F. Richard Moore, op. cit. pp.30-32. 69 Évidemment, les musiciens le savent, au moins intuitivement, depuis toujours mais les dialogues entre ces deux

communautés sont rarement aisés. Par ailleurs, cette prise de conscience avait clairement été faite par Pierre Schaeffer — un autre grand « passeur » art-science — dès les années 1948-50 ; c’est même une des clés de la musique concrète.

70 Max. Mathews, The Technology of Computer Music, op. cit. En dix ans, toutes les catégories essentielles de la perception du son sont abordées et intégrées à la démarche informatique. Cela s’est d’autant plus accentué que les psychologues expérimentaux se sont aussi mis à utiliser le logiciel à la suite de Guttman et Pierce.

71 Op cit. 72 La richesse des versions récentes de CSound est proprement vertigineuse : la vaste majorité des approches connues

depuis 1957 y sont représentées ; cela représente des centaines de modules. 73 À cette époque, les groupes de recherche s'abonnent aux services informatiques communs. Chaque minute d'utilisation

est facturée et les dépenses en temps de calcul informatique ont un coût toujours présent à l'esprit des chercheurs. Cela explique encore que Mathews décourage presque d’utiliser les filtres numériques, difficiles à régler et coûteux en temps, op. cit. pp 76-78.

Page 18: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

La dissémination croissante de l'informatique musicale, à partir des années 1970, ouvre d'autres portes. En fait, chaque extension des programmes de synthèse informatique a pour objet de suppléer aux manques et impossibilités des modules de la génération précédente.

Gen d’env.

Osc. a1

Forme d’onde f2

Forme d’enveloppe (f1)

Amplitude k1

Fréquence P7

Sortie

Durée P3

Amplitude max. P4

Temps d’attaque P5

Temps de chute P6

Amplitude P8

Fréquence P9

Osc. a2

Mult.

Forme d’onde f3

; Risset "Harmony/Timbre" #550 sr = 44100 kr = 4410 ksmps = 10 nchnls = 1 ;instrument de modulation en anneau instr 1 k1 envlpx p4, p5, p3, p6, 1, 1, .01 a1 oscili k1, p7, 2 a2 oscili p8, p9, 3 out a1 * a2 endin ;instrument de synthèse additive instr 2 ;autre forme de générateur d’enveloppe i1 = 1/p3 k1 oscil p4, i1, 4 ;oscillateur audio a1 oscili k1, p5, 2 out a1 endin

; Risset "Harmony/Timbre" #550 ;formes d’ondes et d’enveloppes f1 0 513 5 .01 512 1 f2 0 512 9 1 1 0 f3 0 512 9 0 42 1 172 1 84 -1 172 -1 42 0 f4 0 513 5 1 512 .00195 f0 1 s ; « mélodie » de l’instrument 1 i1 .5 .6 36 .01 .6 424 36 1000 i1 .6 .6 36 .01 .6 727 36 1000 i1 .9 3.6 36 2.30 1.2 424 36 1000 i1 .9 .6 36 .01 .6 1542 36 2000 i1 1.0 3.5 36 3.2 1.2 727 36 1000 i1 1.1 .6 36 .01 .6 1136 36 2000 i1 1.3 3.2 36 1.9 1.2 1542 36 2000 i1 1.4 .6 36 .01 .6 1342 36 2000 i1 1.5 3.0 36 1.9 1.2 1136 36 2000 i1 1.8 2.7 36 1.4 1.2 1342 36 2000 ; son de cloche par synthèse additive i2 4.0 10.0 4000 273.0 i2 4.0 7.5 2000 455 i2 4.0 4.5 2000 576 i2 4.0 6.5 1500 648 i2 4.0 4.0 1500 864 end

Ex. 7. Algorithme du premier instrument et orchestre et partition de Risset

Dans cet exemple célèbre74, Risset construit d’abord un instrument riche : un signal sinusoïdal « a1 », avec enveloppe dynamique trapézoïdale, est multiplié par un autre signal « a2 » un

74 Cet exemple — les sons principaux du début de la pièce Mutations, 1969 — écrit au départ dans le langage Music V, est

aussi transcrit en langage CSound.

Page 19: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

quasi-sinus inversé en phase ; cette technique est une implémentation informatique de l’ancienne « modulation en anneau », une sorte de modulation d’amplitude utilisée à d’autres fins dès les radios de tranchées de 1914-18. Cette méthode de synthèse permet, avec relativement peu de calculs, de produire des sons suffisamment complexes pour devenir intéressants. La partition précise pour sa part les moments de départ, durées, amplitudes, temps d’attaque, temps de chute et fréquence. Le second instrument est un simple oscillateur sinusoïdal à enveloppe décroissante « f4 » servant à produire un son de cloche par synthèse additive. La partition indique les moments de départ, durées, amplitude et fréquences. Dans la même logique de synthèse par modulation, le compositeur John Chowning décrit dans son célèbre article sur la synthèse par modulation de fréquence, un oscillateur spécialisé qui doit s'ajouter à la panoplie de Music V75. Les avantages de la modulation de fréquence sont sa simplicité d'usage et la faible quantité de modules nécessaire pour réaliser des timbres encore plus complexes que ceux de la modulation d’amplitude. Il s'agit donc d'une technique économique. C’est d'ailleurs la première technique de synthèse numérique retenue pour les synthétiseurs numériques commerciaux (Synclavier, Dx-7). En revanche, la modulation de fréquence se montre assez problématique pour la perception. Bien que son principe soit globalement facile à saisir, il est difficile de prévoir en détail le produit exact d'une modulation donnée, en particulier au niveau des amplitudes individuelles des partiels. Ce type de recherche est donc élargi à son tour, donnant naissance à différentes techniques de distorsions non linéaires tenant davantage compte de la perception76. On retrouve deux explications à ce foisonnement : 1. Par leur large diffusion, les outils de l'informatique musicale suscitent un intérêt croissant. Dans un contexte

où la technologie prolifère de façon presque délirante, chaque équipe de travail, dotée de son environnement informatique propre, se concentre sur un problème musical ou acoustique donné, selon les intérêts personnels des musiciens impliqués, ou encore de ceux des bailleurs de fonds ;

2. Après une période d'expérimentation avec les trois principaux modèles généraux de synthèse (additive, soustractive ou par modulation de fréquence), on se rend compte qu'une synthèse fine nécessite des approches plus spécialisées, en particulier lors de synthèses imitatives.

Ainsi, à la fin des années 60 et dans les années 70, un grand nombre de recettes spécialisées apparaissent, que ce soit pour réaliser un son de trompette convaincant, pour synthétiser le [a] de Caruso ou le clavecin enfin bien tempéré… Après Risset, la communauté croissante des compositeurs informatiques s'aperçoit que la synthèse imitative revient à une question de juste perception de la nature acoustique du son à reproduire. Cette nécessité de traiter chaque cas instrumental comme un problème acoustique et psychoacoustique particulier demeure aujourd’hui d'actualité. En ce sens, la synthèse par modélisation des structures physiques vibrantes constitue une nouvelle réponse aux difficultés de produire des imitations instrumentales convaincantes77. Malgré une tendance inavouée à un certain conservatisme sonore, cette fascination historique pour une synthèse sonore imitative se justifie dans la mesure où elle a beaucoup stimulé les recherches sur des méthodes de synthèse atteignant le niveau de qualité des sons naturels. Les algorithmes de production sonore ainsi obtenus servent ensuite, ou devraient servir, à synthétiser des sons inouïs, inexistants dans la nature. Ces algorithmes de plus en plus fins sont contemporains de la recherche musicale des hybrides, des chimères ou des monstres, par exemple celles de R. Reynolds dans Archipelago, 1983. 75 Curtis Roads, Computer…, op. cit. pp 224-250. 76 Ibid. pp 250-262. 77 Voir la note 81, infra.

Page 20: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

On a aussi reproché à l'informatique musicale sa dépendance par rapport au modèle de Fourier qui intègre difficilement les évolutions temporelles du son. Une solution est proposée avec le modèle granulaire de Gabor. Différents compositeurs et informaticiens ont tâché de le mettre en oeuvre : Xenakis, Roads78, Truax ou, plus récemment, Arfib et Kronland-Martinet79. Pour leur part, les recherches sur la voix humaine qui se poursuivent depuis les années 1950 font apparaître de multiples techniques visant à mieux modéliser ce type de sonorités80 : le vocodeur à canal ou le vocodeur de phase, le codage par prédiction linéaire, ou les différentes techniques de synthèses formantiques81 comme les FOF de Rodet, 1979, ou les PAF de Puckette, 1992. Dans le cas de la synthèse par modèles physiques82, on tente de synthétiser des sons non pas en modélisant leur perception mais plutôt en modélisant des structures mécaniques vibrantes. Les modèles de Hiller et Ruiz, 1971, Smith, 1982 ou Karplus-Strong, 1983, auront beaucoup d’influence jusqu'à aujourd’hui. À la recherche de chimères, les usagers de la synthèse par modèles physiques rêvent de coupler des composantes impossibles à associer dans la nature, chimères d'une timbale excitée par une attaque de clarinette, d'un biseau de flûte activant les résonances d'un tam-tam.

4.1.5 Aide à la composition et processus formels Du côté de la modélisation et de la formalisation musicale, les recherches se sont développées des deux côtés de l'Atlantique. Aux USA, l'aide informatique permet à des musicologues comme Alan Forte de fonder un système d'analyse des structures musicales à partir de 197483. Ce chercheur s’aide aussi des travaux sur la théorie des ensembles appliquée à la musique par son professeur Babbitt et sur le principe de réduction développé par H. Schenker. Mentionnons aussi les recherches sur les grammaires génératives musicales de chercheurs comme Fred Lerdahl84, qui s'inspirent de modèles linguistiques et de préceptes psychoacoustiques. En France, des chercheurs et compositeurs comme Xenakis, Barbaud, Philippot85 ou André Riotte86 entreprennent dès le début des années 60, de faire générer de la musique par l'ordinateur ou de lui faire analyser des textes du répertoire. L'école stochastique de composition se base sur un travail de génération algorithmique de matériau musical à l'aide de procédés formels statistiques. Du côté européen, les recherches en formalisation musicale se poursuivent tout au long des années 70, par exemple en Suède autour de Johan Sundberg, ou en Hollande à l'Institut de Phonologie. Ces travaux aboutissent à la création de systèmes de règles régies par les nécessités de la perception. Ces règles servent de contraintes lors de la synthèse sonore informatique pour limiter l'infini sonore potentiel à des créations qui peuvent avoir un sens pour notre système perceptif. Le projet CHANT développé depuis le début des années 80 à l'Ircam ou ceux de l'ACROE de Grenoble sont aussi des systèmes utilisant des contraintes par règles87.

78 Ibid. pp. 168-184. 79 Daniel Arfib et Richard Kronland-Martinet, « Transformer le son : modeler, modéliser », in Les cahiers de l’Ircam, no 2.

Paris : Ircam/Centre Georges Pompidou, 1993, pp 67-82. 80 Curtis Raods, Computer…, op. cit. pp. 197-212. 81 Ibid. 296-315. 82 Ibid. pp 265-296. 83 Pour la traduction française, Ian Bent, L’analyse musicale, Nice, Main d’œuvre, 1998, pp. 111-116. 84 Fred. Lerdahl et Rai Jackendoff, A Generative theory of Tonal Music. Cambridge, MIT Press, 1983. 85 http://www.entretemps.asso.fr/Philippot/LivreMP.html 86 http://www.riottemusicalfoundation.org/bio.htm 87 Cette approche, encore enrichie par les demandes des musiciens spectraux ou plus jeunes, est aujourd’hui illustrée

brillamment par le logiciel Open Music de l’Ircam.

Page 21: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

4.1.6 Informatique et instrumentalité Dans ce domaine, l'esprit typique du début des années 1950 envers l'instrumentalité a très longtemps conservé son influence sur les musiciens de recherche. On rêve encore beaucoup à l'exécution « parfaite ». Néanmoins, un courant secondaire émerge autour de 1960.

4.1.6.a Live electronics et synthétiseurs Les travaux sur les néo-instruments et sur l’électroacoustique analogique se croisent et s’incarnent à partir de la fin des années 1950 dans une nouvelle famille d’instruments qui auront un impact considérable sur la vie musicale : les synthétiseurs. Les « bricolages » de bandes magnétiques, en particulier le laborieux travail de l’école électronique, ne sont pas du goût de tous les musiciens intéressés par ce genre de matières sonores. Le studio électroacoustique est encombrant, fragile et demande un doigté certain88. Des inventeurs en électronique, soit à la demande de musiciens électroacousticiens, soit par curiosité s’attaquent à ces problèmes d’ergonomie. Les premiers synthétiseurs analogiques89 sont modulaires, de véritables petits studios électroacoustiques « de poche ». Ketoff, Buchla et Moog, bientôt rejoints par Zinovieff, ARP et bien d’autres90 proposent différentes unités analogiques de synthèse et de traitement du son ainsi que des ensembles assez complets, les synthétiseurs. Ces instruments particuliers ont d’abord un certain succès dans les studios de musiques et, vu leur ergonomie réellement améliorée, auprès de jeunes musiciens « aventureux » (MEV, Sonic Arts Union, M. Subotnick, …). Cela permet l’émergence du courant du live electronics, la musique électroacoustique ou mixte en direct91. Ensuite, surtout grâce au grand succès populaire du disque de transcriptions pour synthétiseur de pièces de Bach, par W. Carlos92, Switched-on Bach, 1968, ces instruments sont adoptés par les musiciens populaires, pour se joindre aux instruments principaux du rock et donner sa couleur particulièrement recherchée au courant progressif93. En retour, ce succès populaire amène les fabricants de synthétiseurs à produire des modèles simplifiés, encore plus instrumentaux, à l’image de l’incontournable Minimoog, 1968. Après ces succès, le synthétiseur devient un objet de grande distribution dans les années 1970-80, surtout après l’entrée en jeu des compagnies japonaises94. Ces instruments sont tellement importants pour la vie musicale qu’ils ont de nombreuses répercussions sur l’informatique musicale. Ces impacts sont à la fois positifs et négatifs : 1. Le principal effet positif de cet intrumentarium synthétique fut une diffusion à grande échelle de ce type de

sonorités. La modernité sonore, populaire comme savante, de 1968-75 passe par le son « électrique »95 ;

88 Voir Martin Laliberté, Un principe…, op. cit, chapitres 4 et 5. 89 La technologie des premiers synthétiseurs est à base de tensions électriques continues, analogues aux variations de la

pression acoustique, le voltage control des oscillateurs VCO, filtres VCF, … 90 Mark Vail, op. cit. 91 Voir, Joel Chadabe, op. cit. pp 81-107. 92 Élève des pionniers de la Tape Music V. Ussachevsky et O. Luening 93 Pink Floyd, Yes, Genesis, Tangerine Dream, ELP, King Crimson, Soft Machine… 94 Mark Vail, op. cit. pp. 17-28. 95 Cet impact a, bien entendu, été préparé par les néo-instruments, en particuliers par ceux qui ont connu un succès

populaire important : la guitare électrique, l’orgue électrique et le piano électrique. Dans le domaine populaire, cet impact est très sensible à partir du rock-n’-roll, du blues électrifié et du jazz, soit depuis les années 1950. De façon caractéristique, les premiers joueurs de synthétiseurs influents sont d’abord des organistes/pianistes électriques ou des guitaristes.

Page 22: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

2. Une nouvelle génération de musiciens a épousé ces nouveaux sons à un âge critique. Leurs attentes et leurs idéaux sont assez différents de ceux des musiciens des générations antérieures, essentiellement conditionnées par les instruments acoustiques. Pour cette nouvelle génération, le son électrique va de soi ;

3. Un tel matériel, devenant de plus en plus courant, rend possible le live electronics et même une certaine standardisation des pratiques96. Un véritable répertoire peut se constituer, citons par exemple les musiques de Steve Reich, Philipp Glass, Tristan Murail97, … ;

4. Les principaux effets négatifs de cette génération de synthétiseurs sont liés à leur facture encore un peu

limitée98. Les composantes de ces modules sonores demeurent peu fiables, surchauffent, les oscillateurs perdent leur accord, les nombreux fils de branchements sont assez fragiles et se cassent, … Ces difficultés, contournables en studios, deviennent catastrophiques en concert ;

5. Les synthétiseurs compacts comme le Minimoog, proposent en partie des solutions en sacrifiant l’ouverture et la flexibilité des possibilités sonores. Ces instruments offrent des palettes sonores beaucoup plus restreintes et des sonorités souvent plus pauvres : en pratique on se limite à de la synthèse soustractive à un seul filtre passe-bas. Cela est une régression au plan du timbre99 ;

6. Cette restriction s’accompagne, principalement à cause de la standardisation des claviers, d’un certain recul musical : les synthétiseurs compacts ressemblent plus à des orgues électriques, au jeu surtout traditionnel, qu’à des petits studios électroacoustiques100. Cela s’amplifiera avec les synthétiseurs polyphoniques, après 1975101.

De façon significative, ces facteurs positifs et négatifs poussent de nombreux musiciens de cette génération vers l’informatique musicale102, nettement plus puissante et plus fiable, en dépit de la lourdeur de ses interfaces. Cette nouvelle génération a de nouvelles exigences.

4.1.6.b Une première réponse à l'absence de temps réel : les systèmes hybrides La principale contrainte des systèmes informatiques classiques est l'absence de temps réel. Cette impossibilité de jouer en direct des sons nouveaux, de laisser agir l'intuition du moment pèse beaucoup. Les avancées matérielles de la troisième génération informatique permettent une autre approche : la synthèse hybride. Puisqu'il est encore impossible de créer des sons directement en temps réel, on consacre l’ordinateur au contrôle des modules générant le son. On branche les PDP et autres mini-ordinateurs de l'époque sur des systèmes de synthèse analogiques. Dans ce cas, l'ordinateur envoie par le biais de plusieurs convertisseurs numériques analogiques des tensions de commandes appropriées aux modules de synthèse choisis, oscillateurs à forme variable, filtres ou amplificateurs. Ainsi, chez EMS (Londres) un PDP-8 pilote le gros synthétiseur Synthi 100 de cette compagnie tandis que la société Buchla Associates regroupe un synthétiseur de série 200, un générateur de fonction spécialisé, une sorte d'ordinateur analogique, et un mini-ordinateur numérique à 16 bits103. À partir de 1967, Mathews et Moore104, après leurs travaux sur Music V, développent aux Laboratoires Bell un des premiers systèmes d'interprétation musicale informatique en temps réel : le projet GROOVE. M. Mathews et F.R. Moore se penchent sur le contrôle en temps réel

96 Le livre, très influent à son époque, d’Allen Strange Electronic Music, Dubuque, WC Brown, 1973, apporte un

témoignage très intéressant à ce propos. 97 Ainsi que Pink Floyd, Tangerine Dream et leurs imitateurs. 98 Au début, il s’agit de production en petites séries, presque de l’artisanat. 99 Ces limitations du nombre de modules réellement disponibles — difficulté rencontrée dès le studio de Cologne, en réalité

— va provoquer un rêve significatif, celui du synthétiseur « à 1000 oscillateurs ». 100 Il y a des exceptions notables : l’ARP 2600, le système 200 de Buchla et les VCS-3 et Synthi AKS d’EMS, surtout. 101 L’approche musicale, néo-romantique ou néo-baroque, des groupes de rock progressif y est aussi pour quelque chose.

Voir Martin Laliberté, op. cit., chapitre VI. 102 Richard Teitelbaum, Tristan Murail, Horacio Vaggione, George Lewis, … 103 Joel Chadabe, op. cit. p. 163-164. 104 Qui est aussi pianiste et percussionniste.

Page 23: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

et sur l'informatisation rationnelle des paramètres de contrôle. Le nom de ce système provient des initiales suivantes : Generated Real-time Operation On Voltage-controlled Equipment105. Comme son nom l'indique, ce système hybride contrôle de façon informatique une série de synthétiseurs analogiques. Le système GROOVE marque une étape importante et a influencé la plupart des recherches informatiques sur la question. Confirmant cette évolution, Mathews s'est ensuite résolument tourné vers la question néo-instrumentale. Ses nombreux projets, tels le Sequential Drum, les violons électriques ou le Sequential Piano, le prouvent. Après cette tentative initiale, divers modules de plus en plus performants de synthèse en temps réel sont développés aux États-Unis ou en Europe. Les créateurs se sont mis à comprendre l'importance de ce nouvel outil, un des plus évolués de l'histoire humaine. Il faut cependant attendre la mise au point des microprocesseurs pour permettre le développement de systèmes réellement utilisables en temps réel.

4.2 Troisième décennie de l’informatique musicale « Informatique musicale : troisième décennie, 1975-85

Rêve : prolifération Réalité : développement »106

4.2.1 Un mouvement d'accélération Le développement de la microinformatique accélère les recherches fondamentales et pratiques sur la question de l'interprétation en direct de la synthèse. Ajoutons aussi que la diffusion de plus en plus importante des synthétiseurs commerciaux a produit deux résultats : 1. Les musiciens informatiques ont une envie croissante de profiter des attraits et du dynamisme du jeu direct ; 2. Ces musiciens ont été déçus par la qualité réelle et la faible ouverture sonore des synthétiseurs analogiques

ou hybrides de l'époque. Plusieurs suivent donc le dicton courant dans le milieu: « si on ne le fait pas nous-même, quelqu'un d'autre le fera mal à notre place »107. À la fin des années 70 et au début des années 80, émergent plusieurs propositions pratiques de la part des chercheurs. Les rapports des International Computer Music Conferences ou des autres institutions de la musique informatique regorgent de projets concernant une forme d'instrumentalité des systèmes informatiques, le temps réel ou des propositions de nouveaux instruments. Après une époque où les créateurs ont cherché principalement à faire de la musique sur bande sans interprète, le vent tourne en faveur du temps réel.

4.2.2 L'Ircam, une nouvelle utopie Dans le contexte général de la troisième période de l'informatique musicale, où les problèmes techniques sont de mieux en mieux maîtrisés, les problèmes musicaux ou compositionnels prennent un relief accru. À partir de 1970, un nombre croissant d'acteurs de l'informatique musicale appelle une nouvelle fusion des artistes et des scientifiques pour mener de pair les recherches musicales de pointe et la recherche fondamentale dans les disciplines scientifiques concernées.

105 Max Mathews et F. Richard Moore, « GROOVE-A Program to Compose, Store and Edit functions of time », in

Communications of the ACM, vol. 13, no 12,1970, pp 715-721. 106 F. Richard Moore, op. cit., p. 36. 107 Il faudrait mettre ce dicton en parallèle avec le principe fondamental de la contre-culture soixante-huitarde du Do-

It-Yourself.

Page 24: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

En 1974, Pierre Boulez, marquant son retour en Europe et en France, ainsi que l'aboutissement de cinq années de politique culturelle du gouvernement Pompidou, anime la première conférence de presse de l'Institut de Coordination Acoustique Musique. L'Ircam, inauguré en 1977 commence véritablement ses travaux en 1975-76 et concentre la plupart des projets informatiques de la décennie. Après un long épisode américain, l'utopie technologique et moderniste des années 1940 revient en Europe par l'escalier d'honneur. L'équipe des débuts comporte Boulez, Berio, Globokar, Risset, Bennett, Decoust, soutenus par une équipe technique souvent américaine108. Des locaux et matériels faits sur mesure, une salle de concert à acoustique variable, véritable utopie architecturale, un système informatisé de grande ampleur sont dédiés aux problèmes de la musique.

4.2.3 Un nouvel espoir : le mythe de la « bonne machine » Pour les compositeurs, le système informatique de l'Ircam propose d'abord une nouvelle version de Music V. L'environnement de travail bénéficie aussi des résultats des projets hybrides : différentes interfaces de commande sont ainsi réalisées à l'institut. Les synthétiseurs numériques développés à l'Ircam, les 4A, 4B, 4C et 4X, sont probablement les machines qui ont le plus fait couler d'encre à l'époque. Le terme « synthétiseur » n’implique pas nécessairement celui d’instrument commercial à clavier : les synthétiseurs développés à l'Ircam avaient approximativement l'apparence, aujourd'hui courante, de cartes informatiques. Les développements du matériel informatique courant dans la seconde moitié des années 70 permettent l'élaboration de la première génération de synthétiseurs entièrement numériques et en temps réel. Cette tentative n'est pas l'exclusivité de l'Ircam, comme en témoignent ces autres projets : le SYTER du GRM développé par J.F. Allouis, l’UPIC de Xenakis, les systèmes de Alles109, FRM et Samson110 ou des Lucasfilms aux États-Unis. Cette étape de la technologie musicale fait resurgir le mythe de la « bonne machine », mythe parallèle à celui de l'algorithme idéal de synthèse. En pratique, chaque machine matérialise les a priori techniques et esthétiques de son équipe de réalisation. Ainsi, pour ne retenir que des exemples français, les 4A, 4B, et 4C mettent surtout en oeuvre un grand nombre d'oscillateurs, favorisant la synthèse additive chère aux compositeurs sériels comme Boulez et Berio. Puis, la 4X combine les approches de synthèse additive et celles du studio électroacoustique. Fidèle à ses origines au GRM, le SYTER tâche de simuler par informatique les outils de la musique concrète : filtres, chambre d'échos, transpositeurs, générateurs d'enveloppes, systèmes de mixage et de montage sophistiqués. L'UPIC propose, entre autres, une interface graphique en forme de table d'architecte et un travail sur les continuums sonores, qui sont au coeur de l'approche de Xenakis. Ces machines de rêve sont possibles grâce à une nouvelle donne technologique : avec des circuits à forte densité d'intégration (puces VLSI), la synthèse ou le traitement des sons par des algorithmes variés, et surtout le temps réel deviennent envisageables, quoique encore assez coûteux après 1980. Cette introduction tellement attendue du temps réel constitue un point tournant de l'histoire de l'informatique musicale. Avec cette nouvelle génération de machines, le compositeur peut enfin entendre ses idées musicales et réagir vite pour les corriger ou les rejeter. La composition avec ordinateur peut s'approcher de la boucle imagination/réaction déjà permise par la musique électroacoustique et passer à une vitesse et une qualité musicale

108 L’institut maintient à cette époque une relation privilégiée avec l’équipe de Stanford. 109 Développé aux laboratoires Bell. 110 À l’Université Stanford. Pour ces différents synthétiseurs voir Joel Chadabe, op. cit., pp 140-184.

Page 25: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

supérieure. On a beaucoup écrit sur l'impact d'une telle méthode sur la pensée musicale et il est inutile de s'y attarder ici111. Pour l'interprète de la musique électrique, les possibilités de synthèse en temps réel — en direct sur scène, pendant le concert — signifient aussi une libération majeure par rapport à la bande magnétique et son temps figé. Une pièce comme Répons de Boulez marque sans doute l'apothéose de cette approche.

4.2.4 Expansion de l’informatique musicale Pour terminer, traçons un tableau de bilan :

Ex. 8. Les principaux centres de l’électroacoustique et de l’informatique musicale Fondation Informatisation Lieu Principaux acteurs et commentaires 1920-40 - Europe, USA Essais privés avec des phonographes, tourne-disques,

postes de radio, pistes optiques et néo-instruments… Cage, Hindemith, Milhaud, Grainger, Toch, Respighi, McLaren, Sholpo, Varèse

1945-54 - Studio personnel Ottawa

LeCaine

1946 1967 Studio personnel Londres, Fressingfield

Cary Travaille avec l’EMS de Zinovieff à partir de 1967

1948 - Studio personnel, New York

B. et L. Barron Aident Cage et réalisent des musiques de films.

1948 1972-82 Musique concrète (GRM) Radio-France, Paris

Premiers essais de Schaeffer, Henry, … Deviendra le GRM en 1958. Syter développé 1975-82 puis GRM Tools en 1994-2004.

1951 - Musique électronique WDR Cologne (Bonn)

Eimert, Bayer, Meyer-Eppler, Stockhausen, Koenig, Boehmer…

1951 - Project for Music for Magnetic Tape New York

Cage, Brown, Barron Cesse en 1954.

1951 1960 GRM IBM

Philippot112, musique concrète « écrite », musique algorithmique à la main ou à l’ordinateur.

1952-55 1965 U. de Columbia, New York

Ussachevsky, Luening… Fusionne avec celui de Princeton en 1959

1954 1956-62 GRM, Studio Phillips, Gravesano IBM France EMAMu, CEMAMu

Xenakis. Travail de formalisation mathématique et musicale d’abord, 1953-54, puis électroacoustique (GRM, 1954, Gravesano 1959) puis informatique. Fonde l’EMAMu en 1966 (CEMAMu en 1972) au CNES. Cette équipe réalisera différents programmes et outils : les logiciels ST, SMP, GENDYN et le synthétiseur numérique UPIC.

1955 - Studio de Phonologie RAI, Milan

Berio, Maderna, Nono, Lietti, Zuccheri

1955 1955 U. de l’Illinois, Urbana-Champaign

Hiller, Isaacson, Brün, Myhill, …

1955113 v. 1990 ?114 Studios japonais dont le Studio de la NHK, Tokyo

Yuasa, Mayusumi, Takemitsu,

1957 1957 Bell Laboratories, Murray Hill

Mathews, Guttman, Pierce, … H.Alles y développe son synthétiseur numérique en 1977

1957 1965 U. Princeton, Princeton, N. Y.

Babbitt, Lansky, Randall, Dodge

1958 1958-61 Groupe de Musique Algorithmique, Bull,

Barbaud115. Travaux sur les automates musicaux et l’algorithmique post-schoenbergienne. Travaux chez Honeywell-Bull puis INRIA, Orsay, 1975

111 Pierre Schaeffer, TOM, op. cit. 112 Michel Philippot, loc. cit. 113 Emmanuelle Loubet, « The Beginnings of Electronic Music in Japan, with a Focus on the NHK Studio : The 1950s and

1960s »in Computer Music Journal, vol 21, no 4, hiver 1997, Cambridge, MIT Press, pp 11-22. 114 Étonnamment, la musique informatique ne se serait enracinée au japon qu’à partir de son organisation de l’ICMC

de 1993. Emmanuelle Loubet, « The Beginnings of Electronic Music in Japan, with a Focus on the NHK Studio : The 1970s »in Computer Music Journal, vol 21, no 1, printemps 1998, Cambridge, MIT Press, pp 49-55.

Page 26: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

1958 1964 Radiophonic Workshop BBC, Londres

Cary, Hodgson…

1959 1964 U. de Toronto (LeCaine), M. Schaeffer,Ciamaga, Tenney, … 1961 1964-67 Studio de musique électronique,

U. d’Utrecht Koenig,Tempelaars, Kaegi, Boehmer Devient le Studio de Phonologie en 1967 et sera déplacé à La Haye en 1990 ?

1961 1961 Travaux à l’Euratom, Italie

A. Riotte116 travaux sur la formalisation musicale et l’analyse musicale assistée par ordinateur. Se joint au CEMAMu en 1969.

1961 1971 San Francisco Tape Music Center / Buchla Associates

Subotnick, Sender, Oliveiros, Riley, Reich… S’associent à Buchla en 1963 Le SFTPC sera intégré au Mills College en 1965 et Buchla poursuit ses recherches commercialement

1963 1967 Studio di fonologia Musicale di Firenze, Conservatoire de Musique puis CNUCE, Pise

Grossi117, passe de l’électroacoustique à l’informatique musicale au sein de l’Institut national de recherche scientifique italien. Formalisation musicale et synthèse sonore.

1963-65 - Studio de l’Académie Américaine et autres, Rome : synthétiseur Synket

Ketoff, Eaton, Marinuzzi, Evangelisti, Morricone

1964 1964-66 U. Stanford, Californie

Chowning, Smith, Poole, CCRMA fondé en 1975

1964 1972 Groupe Fylkingen et EMS Radio Suédoise, Stockholm

Wiggen, Bodin,Ungvary,

1964 1975 Studio Moog Trumansburg

Moog, Deustch, Eaton, Rhea De nombreux changements de nom et de lieux S’informatise pour le Polymoog.

1966 1967 Studio EMS, Londres Zinovieff, Cary, 1966 v. 1986 ? Université d’York

Groupe Interface/CDP GB

Wishart, Orton, Endrich, Atkins… Portent Cmusic sur ordinateur Atari en 1986

1967 1972 Electronic Music Studio Dartmouth College

Appleton,Alonzo,Jones Fonderont le New England Digital (Synclavier) en 1977

1967 1973 U. of San Diego Oliveiros, Moore, Loy, Reynolds CARL fondé en 1979

1967 v. 1975 STEIM118, Amsterdam

Andriessen, Schat, De Leew, Boehmer puis Waiswicz, Ryan, Sonami, … De nombreuses recherches sur les interfaces gestulles

1968-69 1972 Norlin Music, puis Oberheim Electronics,

Oberheim Le premier projet informatique était un séquenceur

1969 1969 Studio à l’Institut d’électronique fondamentale, Orsay

Risset. Première implantation de Music V en Europe ? Il se déplacera à Marseille en 1971-73 et à Marseille-Luminy, depuis 1978

1970 1970 U. Colgate, New York

Morrill. Synthèse Fm de grande qualité. Rapports avec le jazz.

1971 1972 Gruppo Electroacustica di Napoli et studio personnel

DiGiugno

1973 1973 Electronic Music Studio MIT, Cambridge

Vercoe, nommé en 1971, implémente Music IV sur ordinateur PDP-11 en 1973. Cela deviendra CSound en 1986.

1974 1974 Ircam, Paris

Boulez, Risset, Berio, Bennett, DiGiugno, Rodet Développements de Music V et de synthétiseurs numériques/traitement de signal 4A-4X Chant/Formes, Patchwork, Max, Open Music

1975 1978 PPG, Hambourg

Palm. Produit des synthétiseurs modulaires puis numériques.

1978 1978 ACROE Grenoble

Cadoz, Luciani, Florens…Centre de recherche sur l’acoustique, le geste musical, l’image et l’informatique. Développement d’outils très originaux (levier à retour d’effort, synthèse par modèles physiques…)

115 http://www.olats.org/schoffer/barbaud1.htm 116 André Riotte, loc. cit. 117 http://www.leonet.it/art/homeart/vita-en.html 118 http://www.steim.org/steim/texts.php?id=1

Page 27: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

1979 1979 Tempo Reale Florence

Berio, DiGiugno… De nombreuse réalisation, dont sur la spatialisation (TRAILS).

1988 1988 Institut pour la musique et l’acoustique ZKM-Karlruhe

J Goebel. Un projet ambitieux de centre de recherche et de création.

On remarque ici que l’Amérique s’informatise en premier, alors que l’Europe de l’Ouest pratique l’électroacoustique. À part quelques précurseurs isolés119, ce n’est qu’en deuxième temps, vers 1970-75, que les Européens changent de technologie. Ils peuvent ainsi bénéficier des performances des ordinateurs de la troisième génération, ce qui leur permet d’emblée des techniques de synthèse et de traitement du son riches. L’informatique musicale européenne peut ainsi conserver les principaux acquis de l’expérience électroacoustique.

5 Pour conclure : la fin d’une époque ? Le milieu des années 1980 marque un point tournant capital de l’informatique musicale. Paradoxalement, il s’agit à la fois de la mort de la démarche classique et, au contraire, de son expansion absolue : « En effet, on peut dire qu’à la fin des années 1980, l’âge de l’informatique musicale est révolu car tout est de l’informatique musicale »120. Depuis le CD musical, l’échantillonneur, les synthétiseurs numériques, la norme MIDI ou les bancs de montage audionumérique et le reste des outils du son actuel, l’essentiel de la musique s’est informatisé, comme l’ensemble de notre univers technologique. Dans ce contexte, l’étonnante vivacité des langages de synthèse directe jusqu’à ce jour peut rendre perplexe. S’il est évident que les stations de travail en temps réel dominent la pratique quotidienne, les langages comme CSound, Cecilia, Open Music, Common Lisp Music et les autres demeurent abondamment utilisés. La clé tient peut-être à ce qui fait la force de ces systèmes : la « généralité » dit John Chowning, l’ouverture et « l’absence de limite à la complexité des sons produits » dit Moore. Chowning précise encore :

« Le fait de penser avec soin à un problème impose un mode d’interaction attentif et réflectif avec la machine – je ne crois pas que j’aurais découvert la FM si j’avais travaillé avec un ordinateur en temps réel parce que cette découverte dépendait du fait que j’avais de longues périodes de temps où je réfléchissais à ce que je faisais pendant que l’ordinateur moulinait les nombres »121.

Xenakis établit une distinction important à ce sujet en opposant la production sonore « en temps », et le travail de composition « hors temps »122. Si les interactions spontanées, la pensée musicale inductive, « manuelle », tous ces savoirs instinctifs ont un rôle essentiel à jouer dans la composition musicale, une part non moins importante se passe dans un temps mental virtuel, imaginaire, abstrait. Or, si les systèmes informatiques classiques étaient lourds, voire pénibles, pour le premier aspect, ils étaient d’une ouverture et d’une souplesse sans égales pour le second. En fait, ils le demeurent aujourd’hui : pour quelqu’un qui maîtrise son outil, le passage d’une idée claire et bien formulée123 à sa réalisation est d’une grand aisance avec de tels systèmes. Par ailleurs, comme toute pratique électroacoustique, l’informatique musicale124 permet un travail par ébauches successives, interactions entre l’imagination 119 Cela est sûrement amplifié par le fait que ce sont des Américains qui ont écrit les ouvrages de référence d’histoire

de cet art. 120 Joel Chadabe, op. cit. p. 139. 121 Ibid. p. 127. 122 Iannis Xenakis, Kélütha. Ecrits. Paris, L’Arche, 1994, p. 68 et passim. 123 La question est là, évidemment. La pensée floue requiert des outils plus complexes. 124 Même en temps différé. Remarquons que la composition instrumentale se produit aussi en temps différé, contrairement à

l’improvisation.

Page 28: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

abstraite et les résultats sonores, corrections et découvertes fortuites. Comme le dit Risset : « parfois par erreur, parfois par exploration, je trouve de l’inspiration dans les trouvailles – parfois, l’échec de trouver quelque chose mène au succès pour trouver autre chose »125. C’est aussi une question de maîtrise des outils : les vrais spécialistes, Risset, Moore, Chowning et leurs descendants nombreux, « jouent » littéralement de l’ordinateur. Cette forme de travail stabilisée depuis 1962 constitue une sorte d’archétype auquel de nombreuses personnes se montrent très sensibles. Elle est devenue un environnement musical de référence, parfaitement adapté à certaines approches compositionnelles et certaines sensibilités, d’une précision inégalée, en dépit de son interface particulière126. Par ailleurs, les systèmes personnels actuels atteignent des vitesses telles que l’ancienne opposition entre le temps différé et le temps réel disparaît. De nombreux logiciels de synthèse ouverts (CSound, Max/MXP, Open Music, Pure Data…) existent et fonctionnent en temps réel, à la grande satisfaction de tous. La balle n’est pratiquement plus dans le camp de la technique mais bien dans celui de la musique. Les rêves de Rabelais, Bacon, Hiller ou Mathews n’ont jamais été aussi proches d’une réalisation étonnante et convaincante.

6 Bibliographie A Ouvrages 1. Joel Chadabe Electric Sound, Upper Saddle River, Prentice Hall, 1997, 370 pages. 2. Célestin Deliège Cinquante ans de modernité musicale : de Darmstadt à l’Ircam. Liège : Pierre

Mardaga, 2003, 1024 pages. 3. Martin Laliberté Un principe de la musique électroacoustique et informatique et son incidence sur la

composition musicale. Analyse et exemples. Thèse de doctorat à l’EHESS/Ircam, Paris, 1994, 673 pages. 4. « Origines et devenir des « nouvelles technologies musicales ». in Musiques, arts,

technologies. Pour une approche critique. R. Barbanti, et al. (ed.), Paris, l’Harmattan, coll. « Musique-Philosophie », 2004.

5. Pierre Lévy La machine univers, Paris, La Découverte, 1987, 240 pages. 6. Tod Machover (ed) Le compositeur et l’ordinateur, Parisn Ircam/Centre Georges Pompidou, 1981, 113

pages 7. Max Mathews The Technology Of Computer Music, Cambridge, MIT Press, 1969, 188 pages 8. F. Richard Moore Elements of Computer Music, Englewood Cliffs, Prentice-Hall, 1990, 550 pages. 9. Pierre Schaeffer : A la recherche de la musique concrète, Paris, Seuil, 1952, 231 pages. 10. Traité des objets musicaux, Paris, Seuil, 1966, 712 pages 11. Charles Rosen, Schoenberg, Paris, Les éditions de Minuit, coll. « Critique », 1979,

12. Curtis Roads The Computer Music Tutorial, Cambridge, MIT Press, 1996, 1234 pages. Traduction

française partielle de Jean de Reydellet, Paris, Dunod, 1998, 679 pages. 125 Cité dans Joel Chadabe, op. cit. p. 128. Risset évoque par la suite sa découverte inopinée de certains sons importants de

sa pièce Sud. 126 Sans oublier les compositeurs pour qui un matériel davantage « de pointe » demeure difficile d’accès ou trop coûteux.

Page 29: Fondements info mus16 - University of Paris-Est Marne-la-Valléeperso.u-pem.fr/lalibert/Exemples_fichiers/Pdf/Fondements... · 2018. 12. 17. · 8 Le livre de Charles Rosen d éjàciteffectue

13. Mark Vail Vintage Synthesizers, Cupertino, Miller Freeman Books, 1993, 203 pages. 14. Iannis Xenakis : Musiques Formelles, Paris, Stock, coll. « Musique », 2/1981, 261 pages. 15. Kélütha, Ecrits. B. Gibson (ed), Paris, L’Arche, 1994, B Périodiques 16. Les cahiers de l’Ircam, Paris, Ircam/Centre George Pompidou, depuis 1992 17. Inharmoniques, Paris, Ircam/Centre George Pompidou, 1986-1991. 18. Computer Music Journal, Cambridge MIT Press, trimestriel. 19. Proceedings of the International Computer Music Conferences, ICMA, annuel. 20. Keyboard, Cupertino, San Mateo, CMP.