david wessel

Je viens d’apprendre le décès, il y a quelques jours, de David Wessel un pionnier de l’informatique musicale et des systèmes personnels, c’est à dire des Macs et des PC tels que nous les utilisons tous, ou presque, à la maison aujourd’hui, pour faire de la musique.

La belle affaire, me direz-vous, mais c’est oublier qu’à cette époque (début des années 80) l’informatique musicale était encore l’apanage de centres de recherche tels l’IRCAM, le GRM, en France, ou le CNMAT, le CCRMA ou d’Universités comme Columbia, aux États Unis.

David Wessel conduisait donc un atelier, à l’IRCAM, qui s’intitulait: « Musique et systèmes personnels » et présentait, plus qu’il n’enseignait, les débuts du Mac pour faire de la musique. Le PC n’était pas encore, ou très peu, dans la course et Max n’existait pas encore. C’est dire dans quel moyen-âge technologique nous nous trouvions encore au regard de ce que nous connaissons aujourd’hui. Il introduisait à l’utilisation, si je me souviens bien, de logiciels comme Cmix ou Mac-MIX, et du langage LISP pour piloter des racks de TX816 Yamaha. C’était très séduisant pour tous les compositeurs et apprentis que nous étions alors.

David Wessel était quelqu’un de très chaleureux, passionné, d’un enthousiasme communicatif et il est largement responsable de l’aspect des nombreux outils dont nous disposons aujourd’hui. Ses innovations sont partout et spécialement dans le champ de l’informatique musicale en temps réel.

Il était directeur du Center for New Music and Audio Technologies (CNMAT) à l’Université de Berkeley en Californie. Auparavant il avait travaillé à l’IRCAM entre 1976 et 1988. Il y a créé le département où Miller Puckette à commencé ses travaux sur un programme, tournant sur Macintosh, qui allait devenir Max.

En 1999 David Wessel a accordé une interview à Gregory Taylor, que l’on peut trouver sur le site de Cycling74 et dont j’ai traduit quelques extraits:

Background Musical et Technique

J’ai été élevé dans une sorte de bain musical depuis ma petite enfance, surtout grâce à ma mère. J’aimais ça et j’ai commencé à jouer dans l’orchestre de mon école à l’âge de neuf ou dix ans. Plus tard, au lycée, j’ai joué dans un groupe de rock et suis rapidement devenu un vrai « jazz snob », vers 17 ans. A coté de ça mon père désirait que je devienne ingénieur et j’étais très intéressé par ça aussi, le modélisme aérien et le dessin technique, toutes ces trucs là. J’étais plutôt élevé dans l’optique de devenir ingénieur.

J’avais donc cette orientation technique, depuis très jeune, et une autre dans le domaine de la musique, en parallèle. Quand je suis sorti du lycée je suis allé à une « jazz clinic », qui se tenait à Indiana University, pendant quelques semaines et j’ai fini par décrocher une formation à la Berklee School of Music à Boston. Je suis rentré à la maison, très excité par la perspective de devenir musicien professionnel. Mes parents étaient effrayés et pour eux, il n’en était pas question… Je suis donc finalement allé à l’Université d’Illinois pour commencer des études d’ingénieur.

C’est peu de temps après que je me suis retrouvé impliqué dans la scène musicale de Champagne-Urbana. A ce moment là j’étais passé à l’étude des mathématiques. Vers 1963, j’ai entendu Lejaren Hiller parler de l’application de la théorie de l’information à l’analyse musicale. J’étais justement en train d’étudier la théorie de l’information au même moment dans une autre classe… soudain ça a éveillé en moi l’envie de connecter musique, science et technologie.

Beaucoup de gens parlent de la part artistique et de la part scientifique de leurs vies comme des domaines tout à fait séparés. Était-ce le cas pour vous?

Ce discours par Hiller était le moment où, pour moi, tous ces domaines se sont connectés. Jusque-là, je ne avais aucune idée qu’ils pourraient être unifiés en aucune façon. J’ai couru à la maison et je me suis mis à analyser la transcription d’un solo de Sonny Rollins, que j’avais, avec l’aide des chaînes de Markov. Je pouvais prendre les données obtenues et les utiliser directement. Ce fut un moment très important pour moi.

Était-ce la partie analytique, ou générative?

Je commençais à penser que c’était comme de faire une recherche entre psychologie mathématique, théorique et musique, qui était ce qui m’intéressait vraiment. Je n’en n’étais pas tout à fait là encore, mais c’était un moment important.

Puis je suis allé à Stanford en tant qu’étudiant diplômé en psychologie mathématique (comme on appelait à l’époque) – un genre d’application des modèles mathématiques à la théorie psychologique. À Stanford, j’avais à peu près abandonné la musique  pendant un certain temps. Être un étudiant diplômé a été un peu difficile pour moi au début, je voulais bien faire. Je continuais à être passionné par la musique, mais je ne jouais plus beaucoup. Et puis en 66, Coltrane est venu et je suis allé à son concert à Stanford, à l’Auditorium Kresge. Ça a vraiment été  une chose mémorable pour moi. J’avais vu Coltrane et Miles un certain nombre de fois, mais quelque chose s’est passé ce jour-là, après ce concert: je devais y revenir vraiment, revenir à la musique.

david wessel

John Coltrane

 

 

C’était Coltrane avec Jones et Tyner et Pharoah Sanders? Pas étonnant….

C’était la fin de cette période – son dernier concert avec Elvin Jones, je pense. Je crois qu’il a effectivement quitté la scène parce qu’il ne s’entendait pas avec Rashied Ali. C’est l’époque où il à fait « Kulu Se Mama » – c’est ce groupe. Mais ce concert fut un révélation. J’ai appelé mes parents tout de suite et j’ai récupéré ma batterie. Comme j’avais décidé que je devais faire quelque chose de mes compétences musicales,  il fallait que je joue dans l’orchestre de Stanford. Je me suis aussi inscrit dans la classe d’improvisation de l’Université Libre. Je revenais à la musique de toutes mes forces.

Je suis donc allé prendre des cours de percussion à Stanford et mon professeur était John Chowning – une nouvelle pièce majeure de la connexion – d’abord Hiller, puis Chowning. Il a commencé à me poser toutes sortes de questions sur la perception parce qu’il venait de terminer un travail sur la simulation du mouvement des sources sonores … c’était vraiment une rencontre incroyable. Grâce à lui, j’ai tout appris au sujet de la musique assistée par ordinateur. J’en avais déjà entendu parler avant en tant qu’idée, mais c’est vraiment devenu réel à ce moment-là. J’ai décidé que je voulais orienter mon travail vers la psychologie et la perception des phénomènes musicaux.

Je suis allé voir mon directeur de thèse, William K. Estes, qui était un très célèbre théoricien de l’apprentissage et lui ai demandé si je pouvais réorienter mon travail de thèse vers un sujet lié à la musique. La première chose qu’il m’a dit c’était: « Amortis les oscillations, Dave. » (Rires) Il m’a dit de finir ce que je faisais et puis d’aller vers ce que je voulais. Je pense que son conseil était juste, mais ça a pris un certain temps pour terminer parce que j’étais tellement impliqué dans la musique à ce moment-là que ma recherche est un peu passée à la trappe.

Donc, une chose en amenant une autre, nous avons commencé à faire de la musique électronique live. J’ai rencontré Stockhausen, alors qu’il était à l’UC-Davis, j’ai pu l’entendre parler et entendre sa musique en concert. Encore une fois, Chowning était une sorte de messager – il a éveillé notre intérêt pour beaucoup de ces artistes. Je me sentais engagé et je voulais faire quelque chose dans l’informatique musicale. J’entrevoyais cette idée fantastique de pouvoir produire n’importe quel son [par ordinateur] – l’idée globale était là, vous savez. En ’69 j’ai participé au premier atelier de musique assistée par ordinateur qui se tenait à Stanford. Max Matthews est arrivé, j’ai appris MUSIC-V et je suis devenu encore plus enthousiaste.

Alors, quand je suis allé prendre ce poste à l’Université d’État du Michigan, la première chose que je décidais de faire fut une recherche sur la cognition et la perception en rapport avec l’informatique musicale. Donc, nous avons installé MUSIC-V sur notre mainframe et obtenu un groupe et un petit laboratoire en état de marche et nous avons commencé à travailler un peu dans la perception musicale tandis que je continuais à caresser l’idée de jouer en public.

 

david wessel

Pierre Boulez

IRCAM et Boulez

Et puis, un soir de Noël – c’était en 1973 – je suis assis à lire le New Yorker et il y avait un portrait de Pierre Boulez écrit par Peter Hayward, je pense – il faudrait que je retrouve cet article parce qu’il a eu un tel impact sur moi. Je lis ce texte où il était question d’un nouvel institut qui allait être mis en place par Boulez à Paris et comment il était basé sur des idées d’application de la science et de la technologie à des problèmes musicaux. Je me dis: « Eh bien maintenant, il faut qu’il y ait mon nom dessus! »

Je deviens tout excité par cette possibilité et je contacte immédiatement Chowning, Max Matthews et Jean-Claude Risset sur ​​cet institut et découvre que, oui, c’était vraiment un scène. Je voulais tellement faire partie de cette scène que je me suis débrouillé pour obtenir un congé sabbatique à la première occasion, et je suis allé à l’IRCAM. Je suis arrivé le 4 Juillet 1976. Je m’en souviens si bien, parce que nous sommes partis de Chicago pendant le bi-centenaire de la Déclaration d’Indépendance des USA et il y a eu un énorme feu d’artifice qui a été tiré au moment où nous avons décollé. C’était vraiment comme un adieu.

L’IRCAM n’était pas encore vraiment  terminé – c’était juste une sorte de trou dans le sol, à l’époque, et une coque en béton, et un personnel très réduit… j’étais curieux de savoir de quelle façon l’institut allait à tourner. Après ma première année, toujours en congé sabbatique, ils m’ont demandé si je voulais rester une deuxième année et être intégré à leur personnel. Donc, j’ai demandé à obtenir un congé supplémentaire. Vers la fin de cette deuxième année, on m’a offert un poste permanent à temps plein. Je suis retourné dans l’état du Michigan régler brièvement  mes affaires, et en 79, je suis devenu partie intégrante de l’IRCAM.

En ces jours, il y avait surtout beaucoup de mainframe et de synthèse sonore en temps non réel d’une part et puis des choses en temps réel qui commençaient autour de cet ingénieur Italien qui s’appelait Peppino diGiugno, avec qui je travaillais. En 77 je fais une pièce intitulée Antony avec une banque d’oscillateurs en temps réel, qui a été enregistrée sur Wergo, et qui a été beaucoup jouée. Travailler sur Antony à vraiment piqué mon intérêt pour les aspects temps réel du concert, même si je travaillais encore principalement avec ces langages musicaux qu’étaient MUSIC-V, MUSIC-X et la suite.

En ’79, on m’a demandé de créer le service de la pédagogie à l’IRCAM et d’être une sorte de conjonction entre le monde scientifique et le monde musical. Bien sûr, j’ai adoré ce genre de situation parce que je me sentais à l’aise dans les deux mondes et je me sentais avoir réglé la tension entre les deux…

Il y a quelque chose qui m’intrigue. Le genre d’art auquel, à mon sens, Pierre Boulez voulait faire la part belle, si vous avez lu son article « Technology and the Composer », se trouve dans une niche très distinguée culturellement, c’est à dire ce qui suit le train du haut modernisme. Mais ce que vous me faites approcher me conduit à me demander comment Coltrane et votre passé d’improvisateur s’inscrivent dans tout ça…

C’est très juste. Voilà une question très intéressante.

Étiez-vous toujours strictement un fan de jazz pendant que vous étiez là bas? Dites-moi comment ça fonctionne.

C’est intéressant. En fait, mon intérêt pour la musique contemporaine a évolué à partir de mon intérêt pour le jazz. Il est arrivé très tôt – il y avait ce saxophoniste nommé Sam Andrea qui vivait dans ma ville natale, quand j’étais au lycée. Il devait avoir la trentaine, une sorte de mec très branché. Et Sam me disait quoi écouter : les quatuors à cordes de Bartok, le Sacre du printemps et Debussy. Plus tard, quand je suis un étudiant de première année à l’Illinois University, je trouve dans Downbeat une interview de Yusef Lateef. Ils lui demandent ce qu’il écoute en ce moment, ce qu’il a entendu récemment d’excitant. Il répond qu’il a entendu un morceau appelé Zeitmasse de Stockhausen qui était très surréaliste. Alors, je descends au magasin de disques tout de suite et je l’achète, je me souviens de ce jour-là très bien. L’orchestre était dirigé par Robert Kraft, une face du disque était consacrée à Stockhausen, et l’autre au Marteau sans maître de Pierre Boulez. C’était la première fois que j’entendais parler de Boulez. J’ai écouté cette musique à laquelle je ne comprenais absolument rien, c’était un mystère total pour moi, mais c’est ce qui m’a intéressé.

Y avait-il quelque chose de fascinant dans cette impénétrabilité, ou étiez-vous curieux du fait qu’il y avait là un sens qui vous échappait?

Il y avait une sorte de qualité délirante de ces pièces qui m’a captivé. Je les ai écouté de nombreuses fois et puis j’ai commencé à suivre ce par quoi ces gens-là étaient intéressés, particulièrement Stockhausen. Je pense qu’il y avait là plus de pôles d’attraction, pour moi, que chez Boulez, à cause des travaux électroniques comme Gesange der Jünglinge, Zeitmasse, et Kontakte. Ce sont ces choses là qui m’ont vraiment excité. Berio, est arrivé ensuite, un autre joueur de jazz me l’avait recommandé. Mais vous me demandiez ce qui est arrivé à mon intérêt pour le jazz quand je suis arrivé à l’Ircam…

Exactement. Je me demandais si oui ou non vous avez eu du mal à concilier ces deux mondes si différents, pas tellement personnellement, mais au sein de la micro-culture qu’était l’IRCAM en ces jours. Etait-ce un lieu exclusif ?

Oh non. Certaines personnes de l’IRCAM étaient très bien informées sur la scène jazz, Boulez pas tellement, mais j’ai été étroitement associé, à l’IRCAM, à Berio et à Vinko Globakar par exemple, et ces gars-là étaient beaucoup plus intéressés par les autres musiques que Boulez lui-même. En particulier, Globakar a été très impliqué dans les processus d’improvisation. J’ai donc, en quelque sorte, trouvé des partenaires dans cette période. Boulez et moi avions une relation très intéressante, je crois qu’il me trouvait un peu amusant, et peut-être, même, qu’il aimait mon enthousiasme, mais le fait est que lui et moi nous entendions bien. Je n’ai jamais eu de problèmes avec lui, alors que beaucoup de gens ont vraiment eu des désaccords sur des questions esthétiques particulières.

Voilà ce dont je suis curieux. Parce que dans une certaine mesure, l’endroit porte vraiment sa marque. Une partie des écrits sur l’IRCAM que l’ai lus, suggère qu’il y avait de réelles divisions culturelles à l’œuvre …

Vous avez probablement lu le livre de Georgina Born …

C’est celui-là. C’est une lecture vraiment amusante.

Eh bien, je vais vous dire. Mon nom de code dans ce livre est Rig. R-I-G. Vous pouvez relire le livre et probablement retrouver sur certains, ce que je dis ici. Je pense que quelqu’un comme Boulez est un esprit assez compliqué. Il a une façon de zigzaguer autour… Alors qu’il possède une très forte esthétique, qu’il est tout à fait reconnu pour ça, qu’il a exprimé une intolérance à certaines directions musicales, il faut se souvenir, que trois années de suite, il m’a demandé d’organiser, au Centre Pompidou, des concerts de musique improvisée sous les auspices de l’IRCAM. Il s’agit de trente concerts de ce que certains appellent le free jazz.

Ça ne ressemble pas beaucoup à de l’exclusion. Ça a dû être un sacré bal!…

[…]

Temps réel et temps différé

Donc, à l’Ircam vous aviez… vous vous êtes trouvé les ressources nécessaires pour commencer à étudier et explorer le temps réel. Mais je pense à l’IRCAM des débuts plutôt comme un endroit où on fait d’intéressantes musiques sur bande : Jonathan Harvey, York Holler, Saariaho …

Oh non. Bien au contraire. Et c’est intéressant que vous ameniez ça parce que dès 1981 Boulez est très clair pour tout le monde : il ne veut pas que des musique en temps non réel, en temps différé, soit réalisées à l’IRCAM.

Pas du tout?

Du tout. Maintenant, ça a changé. Je me souviens avoir été appelé dans son bureau, un jour. J’avais reçu une note de sa secrétaire qui disait: «S’il vous plaît venez me voir. » Alors je me dis, « Oh mon dieu, qu’est-ce que j’ai fait, maintenant? » Alors, je suis convoqué au bureau de Boulez et il me dit, « Il m’a été rapporté que telle personne utilise MUSIC-V…. » Et je lui réponds: « Attendez une minute, Pierre. Beaucoup de gens utilisent ce truc en temps non réel parce qu’il n’y a rien d’autre de vraiment disponible. Voilà donc comment un certains nombre de pièces sont actuellement en cours de production. » Et, j’en viens à nommer plusieurs pièces. Boulez a réagi fortement à ce sujet, mais je pense qu’il n’était pas tout à fait au courant de ce qui se passait dans l’institut. Il avait fait ce genre d’injonction disant qu’il ne devrait pas y avoir de musiques enregistrées, parce qu’il avait un réel dégoût pour la musique sur bande jouée en concert, au point où il ne pouvait tout simplement pas la tolérer. Il voulait vraiment la musique en direct et en temps réel et c’est pourquoi DiGiugno était une personne privilégiée à l’IRCAM. Mais une partie du problème était que les trucs qu’ils avaient conçus n’étaient pas vraiment au point ou pas prêts… ou étaient trop difficile à utiliser et … j’espère que je ne fais pas de l’histoire révisionniste ici…

Toute histoire orale est probablement un peu révisionniste, je pense …

Oui, je suppose. Peut-être que je devrais raconter cette histoire: je suis allé au Japon à l’automne 1982 et j’ai été invité à nouveau à l’automne 1983. C’était vraiment le tout début de MIDI. La spécification MIDI 1.0 a été plus ou moins fixée autour d’Août 1983. Quoi qu’il en soit, ma petite amie, Ushio Torikai, s’était arrangée pour me décrocher un concert parrainé par la marque Roland que nous allions donner au Studio 200, au Seibu Department Store à Tokyo. Je suis donc allé à Hamamatsu et j’ai rencontré l’équipe de Roland. L’IBM PC avait enfin fait son entrée avec succès, et ils avaient un prototype de la MPU401. J’en reçois un exemplaire et, de retour, j’écris un programme en BASIC, en une semaine, et fais un concert. Dans ce concert, l’idée était que nous allions avoir trois musiciens différents jouant le même instrument via MIDI et modifiant ce qu’avaient fait les autre d’une manière ou d’une autre.

Ce fut ma première expérience avec ce genre de dispositif, et il est devenu clair pour moi que d’une certaine manière l’ordinateur personnel allait avoir une grande influence sur ce qui se passait dans la musique. Je suis donc rentré avec un incroyable enthousiasme à l’IRCAM et j’ai pondu un projet que j’ai intitulé: « Juste un peu de musique en temps réel pour 30 000 francs», ce qui faisait environ 4,739.71 € à l’époque. Le projet consistait en un IBM PC, un DX7 et une MPU401, soit un petit système MIDI. Nous avons eu une réunion d’arbitrage budgétaire et  avons procédé à un tour de la table pour que ma proposition soit votée par l’IRCAM. J’aimerais vraiment avoir ce document maintenant, je n’ai pas réussi à le récupérer. Mais il y avait toutes sortes de remarques désagréables faites par écrit de la part de diverses personnes dans la salle. Bien sûr, il a été rejeté comme étant complètement vulgaire dans le sens français du mot «vulgaire» – commun – et pas comme quelque chose que nous devrions faire.

David Wessel

Adrian Freed

 

 

Le Macintosh envahit l’IRCAM

Mais je n’ai pas baissé les bras. En 1984, le Macintosh apparaît, et parallèlement, Adrian Freed arrive à l’IRCAM pour s’occuper des systèmes. Adrian est une de ces personnes remarquables qui sont au plus haut de la technologie et informée de ce qui se passe, de la nouveauté. Il est vraiment une aubaine pour nous, pour ce que nous faisons. Il est donc le responsable des systèmes à l’Institut à l’époque et nous utilisons un VAX et UNIX. Quoi qu’il en soit, je suis parvenu à prendre contact avec Jean-Louis Gassée par une dame nommée Marianne de Gordelfis et nous avons fini par obtenir 6 Macintosh 512 S, donnés par Apple à l’IRCAM. Les 512 S étaient sur ​​le point d’arriver en Septembre ’84. C’est donc à l’automne suivant – l’année suivant mon projet d’IBM PC refusé – j’avais alors reçu les machines et quelqu’un s’est opposé pendant une réunion – la réunion d’arbitrage budgétaire au début de l’automne ’84. La question était: devrions-nous garder ces machines ou les retourner à Apple parce qu’elles étaient considérées comme, peut-être, un « cadeau empoisoné » – machines vulgaires entrant à l’IRCAM, machines auxquelles le peuple pouvait avoir accès…

Oh, c’était terrible!

Je ne pouvais pas y croire et je ne veux pas citer de noms – nous avons en quelque sorte surmonté tout ça. Mais je me sentais comme illégitime et j’étais, en quelque sorte, accusé d’agir de mon propre chef et d’obtenir cette participation avec Apple sans l’accord de l’Institution. Mais, pour donner crédit à Boulez, il a déclaré: « D’accord, vous pouvez garder les machines, mais vous n’aurez pas d’argent pour leur utilisation… »

Ce qui veut dire: « Il y a quelques limitations sur les ressources dont vous disposerez, et nous n’investirons rien dans ce secteur, afin de ne pas passer de temps là-dessus … »

Finalement, il est devenu clair que les gens aimaient ces machines – ils ont commencé à faire leur travail dessus. MacPaint et MacWrite et MacDraw – ces choses étaient beaucoup plus faciles à utiliser que tout ce que nous avions à l’époque. À ce stade, Adrian est revenu à l’IRCAM après un certain temps passé à Bell Labs. Nous nous sommes assis un soir dans un restaurant à l’été ’85 et conçu le programme MacMix sur une serviette. Fondamentalement, c’était une interface utilisateur interactive sur Macintosh, pilotant un programme de mixage tournant sur le VAX. C’était une manière de contrôler votre mix avec des enveloppes et ainsi de suite. Quoi qu’il en soit, il a développé tout ça très rapidement sur ​​le Mac. En outre, il y avait un protocole pour communiquer sur le port série avec le VAX. Ça a été tout de suite utilisé par George Benjamin pour composer une pièce.

Dans le même temps, Miller Puckette arrive et voit les possibilités de ce sur quoi nous travaillions et tentions de développer, c’est à dire un logiciel qui pourrait être utilisé dans le spectacle vivant sur ​​le Macintosh. Une chose en amenant une autre, ils ont décidé que je devrais lancer un groupe distinct à l’intèrieur de l’IRCAM concernant les ordinateurs personnels, qu’ils ont baptisé groupe « Systèmes personnels ». Je suis donc revenu au monde de la pédagogie avec ce nouveau groupe, et j’ai changé de niche pour aller vers un nouvel espace dans l’ancien bâtiment de l’école. Nous étions activement engagés dans LISP, un développement que nous avions baptisé MIDI LISP. Adrian avait développé l’idée de MacMix et débouché, dans le monde commercial, sur ce qui est devenu le système Studer Dyaxis. Les choses changeaient sur ce point. Nous avions clairement gagné la bataille.

Peut-être que je vais être un peu obtus ici, mais comment l’idée que les musiciens puisse vouloir des instruments «personnels» ait été si difficile à imaginer? Ça me semble une telle évidence …

… Que les musiciens veuillent des instruments personnels? Un véritable évidence. Je pensais que l’idée de l’ordinateur « mainframe » ne conduisait nulle part. Je me sentais, un peu, acquitté, vous savez, par rapport à tout ce qui était arrivé. Je pense que c’était quelque chose dont je pouvais revendiquer un peu la responsabilité, de toutes façons. Miller Puckette et Philippe Manoury avaient commencé à travailler ensemble et puis Miller Puckette utilisait un Mac pour contrôler la 4X – la machine de DiGiugno – avec ce qui était une première version de ce qui est devenu Max. La première version fut appelé « Patcher ».

Et je me suis mis à l’utiliser à partir d’un environnement LISP à ce moment-là parce que… non, à cette époque, je travaillais avec l’environnement LISP MIDI pour faire cette pièce avec Roscoe Mitchell. Cela signifie que je suis resté dans l’environnement LISP pendant un certain temps, mais je suis passé à « Patcher » à partir d’un environnement  LISP. A cette époque, je commençais à être courtisé par Berkeley et finis par recevoir une offre pour y aller enseigner à l’automne ’88. Je donnais ma démission à l’IRCAM en Avril 88. J’avais rencontré David Zicarelli quelques fois. J’étais allé chez Opcode, pour obtenir des Interfaces MIDI, dès leurs débuts quand ils étaient dans un garage à Palo Alto. Je crois que j’ai rencontré David le premier jour, et il m’a montré ses éditeurs et bibliothèques de patchs, ce qu’il faisait. Donc, ce qui en est sorti est que je désirais voir David venir à l’IRCAM pour parler de la programmation Macintosh. Alors je l’ai invité. C’était à l’automne ’88. J’avais déjà démissionné, mais c’était en quelque sorte la dernière chose que je faisais. Et alors, Miller [Puckette] et David se sont réunis. Miller et lui se sont très bien entendus tout de suite.

 

david wessel

Miller Puckette

 

 

Premières expériences avec Max

Et le reste est entré dans l’histoire… Mais vous aviez amené Patcher ou Max, quelque fut sont nom, avec vous à Berkeley?

Bien sûr, j’étais vraiment enthousiaste à ce sujet et j’ai commencé à l’enseigner tout de suite, même si je n’avais pas vraiment de laboratoire informatique la première année ici. J’enseignais des choses qui étaient encore dans un programme en développement… ma première année ici n’était rien. Je n’avais même pas encore de bureau parce que le bâtiment n’était pas tout à fait prêt. Voilà comment je suis arrivé ici.

Donc, c’est une sorte de réponse à la question: «Papa, d’où vient Max? »

Oh, cela n’est, bien sûr, pas toute l’histoire. Je n’ai pas vraiment faire autre chose que d’être quelque part pendant un certain temps avec quelques idées et offrir un espace et des encouragements à Miller. Et j’ai commencé à l’utiliser dans une forme très primitive au début.

Qu’est-ce qui vous a attiré dans Max?

Eh bien, j’étais déjà intéressé par cette idée de faire une sorte d’improvisation interactive avec un ordinateur où l’ordinateur serait capable de jouer beaucoup de notes – plusieurs événements et des gestes – que je pouvais contrôler d’une certaine manière. J’avais fait ça dans un environnement MIDI LISP longtemps avant. Je l’ai écrit dans un article que je dois avoir quelque part …

Lorsque Max est arrivé, c’était un implémentation beaucoup plus efficace que ce que j’avais pu réaliser jusqu’alors. Je n’avais plus ces problèmes de « garbage collection » et autres, et je connaissais déjà ce concept de patch grâce au monde MUSIC V, MUSIC X . Mais ça ne concernait pas l’audio à ce moment là – il n’était question que d’événements principalement MIDI. Et il était trop tôt,  je me souviens de la façon dont la priorité des objets, de la droite vers la gauche est arrivée. C’est probablement difficile à imaginer, mais d’abord, Max n’a pas eu de notion d’ordre d’évaluation; si vous mettiez quelque chose dans n’importe quelle entrée de l’objet « plus », vous obteniez une addition. Il fallait construire tout un truc autour de vos objets pour éviter que les résultats deviennent étranges. Vous deviez vraiment faire attention parce que toute entrée pouvait déclencher un objet et puis Miller a eu l’idée que seule une entrée, celle de gauche, déclenche l’objet.

Ensuite, l’autre chose que Miller a ajoutée c’est l’idée d’abstraction. J’avais une pièce pour laquelle je devais reproduire le même ensemble de modules de nombreuses fois, et l’abstraction n’existait pas dans les premières versions de Max. En fait, il n’avait pas encore eu l’idée de faire des sous-patchs. Je me souviens toujours d’avoir passé une nuit entière à copier un patch, encore et encore et encore juste le câblage quelque chose comme 88 fois. Je devais le faire pour chaque note du clavier. Miller m’a vu le faire et m’a dit, « Tu sais, je suis en train de développer les abstractions…. « . Il m’a dit l’autre jour, que c’est de me voir souffrir comme ça qui l’a motivé pour développer ce concept d’abstraction!

[….]

 

Traduit de l’américain par Jean-Michel Darrémont d’après l’interview par Gregory Taylor parue sur le site de Cycling74 et avec leur aimable autorisation.

Show Buttons
Hide Buttons
%d blogueurs aiment cette page :