mages, images, images…

J’ai un jeu d’épreuve de ce texte avec pleins de corrections à reporter, je n’ai ni le temps ni l’envie. Finalement je vous le livre tel quel sur Internet. Ce texte est à parcourir pour avoir une idée de la démarche qui a présidé à la création de Tinnutus Mojo. Le texte est classé du plus récent (automne 2011) au plus ancien (hiver 2011). Le début concerne le travail en train de se faire et la fin du texte correspond à la phase de maturation. Le texte décrit le processus à l’envers, bien sûr le résultat est différent du postulat de départ. Résultat différent parce que tous ces logiciels rencontrés au cours de ce périple ont transformé mon point de vue. Résultat différent, surtout, parce que le théâtre parisien pour lequel j’avais préparé ce travail, à la suite d’une promesse orale, une promesse virtuelle en quelque sorte, n’en a pas voulu. Le directeur artistique n’a même pas voulu regarder cette belle œuvre. Résultat différent, parce queai transformé ce projet grandiose en clips à mettre sur le Viméo. Bien sûr les promesses n’engagent que ceux qui les écoutent, c’est bien connu depuis l’invention de la roue. Au moins les procédures actuelles et le code informatique qui sert à créer ces vidéos et musiques numériques ne promettent rien, ils font ce qu’on leur demande. Certaines fois le résultat est plus cool que ce j’imaginais au départ.

Dérive à travers les logiciels

J’avais commencé à réaliser ce projet après maints et maints essais, recherches tout azimut sur le Net et quelques fausses pistes. Début effectif du travail le mercredi 27 juillet après un stage de montage de deux semaines sur Final Cut Pro 7 puis deux essais avec le mauvais format d’image. Je n’imaginais tout simplement pas que je pouvais réaliser sur mon petit Macbookpro des vidéos HD en 16/9. J’avais commencé à bosser comme un type qui enregistre sur Pro Tools en espérant un résultat de cassette audio analogique des années 80. J’étais engoncé dans un maelström de TV 4/3 en SD, celle qui fait maintenant partie de l’histoire ancienne, celle qui m’a traumatisée dans ma jeunesse. De plus presque tous les logiciels VJ que j’avais trouvés et les sets live que j’avais vus (à l’exception de la Gaîté) étaient tous à l’ancien format en qualité SD.

Tout ce que j’ai écris précédemment était bien documentés, certes, mais finalement j’ai choisi une piste un peu différente. Le guide conducteur est resté : pragmatisme. Des concepts, des concepts brillant peut-être mais de l’efficacité et du pragmatisme avant tout. Il faut que ça marche du feu de Dios avec peu de moyens. Je suis seul, à un point tel que je ne l’ai jamais été, dans la vie, dans la création, dans la musique, le silence, le bruit. Mon oreille se dégrade petit à petit. Peut-être suis-je en train de muter, de changer d’outil techno. De passer génétiquement de la musique à la vidéo, mon projet est une sorte d’image râga. Mais plus je mute vers autres choses et plus je reviens vers la musique.

Dans cette quête documentaire sur la musique et l’image, j’avais trouvé deux indices très important qui ont décidé de mon choix. Le premier était une interview de la québécoise Kastor dans le DVD « VJ Audiovisual Culture »,(dfuse.com) dans le chapitre Paris VJ Nights, elle disait avec un bel accent : « La composition et l’improvisation sont deux travails complètement différents. Je connais des gens qui font de l’improvisation, du veejing en live et qui ne savent pas très bien monter parce que c’est deux manières complètement différentes de réfléchir. C’est comme en musique, les DJ en live et les gens qui font des disques ne sont parfois pas les mêmes personnes, parfois ils ont du mal à faire les deux. » . Qu’est-ce qu’elle raconte cette meuf ? Lumière ! Le montage peut tout à fait remplacer le Veejing en live ! Le deuxième indice qui m’a gouverné pour travailler est cette table d’équivalence images par seconde / BPM trouvée sur le site des géniaux V-Jamm, les pionniers du veejing dont j’avais tellement aimé leur premier logiciel sur Windows 98. Avec cette table de conversion, qui tient en dix lignes, la formule est parfaite, elle résume l’alchimie image son, elle peut même être plus efficace que les logiciels dédiés au Veejing. (Exemple : en vidéo de 25 images/seconde, 15 images par temps, la noire à 100
BPM donne 240 images pour16 temps)

Donc j’ai déjà monté presque 22 minutes de vidéo musique sur Final Cut Pro 7 (au total ce sera 45’). J’utilise massivement Apple Motion 4, un logiciel assez tordu dont tout le monde m’a dit du mal mais qui est une mine d’or pour l’image en mouvement. Motion est fondamentalement illogique comme moi et j’arrive à tirer de ce soft une efficience visuelle bluffant entièrement au service de la créativité. Les commandes ressemblent à celles des anciennes machines broadcast analogique, complètement tortueuses, adaptées à une démarche bidouilleuse.

J’envoie l’image synchronisée avec quelques bases synthétiques du morceau lancé par live d’Ableton, qui me sert aussi de mélangeur sommaire. Et je suis libre de jouer du saxophone et de parler le texte avec un orchestre de taille variable. Je monte environ une minute de vidéo par jour, j’espère avoir fini 30 minutes fin août, je vais présenter le résultat au « Placard Headphone Festival » avec Léo ou je joue quasi tous les ans depuis le début pour tester des idées nouvelles ou roder des projets. Cette fois je suis prêt et j’ai une musique vidéo cohérente et excitante à montrer.

Le secret de fabrication réside dans ce tableau
trouvé sur le site de V-Jamm

(www.vjamm.com)
images par temps..BPM
20 ............................75 > 320 images = 16 temps

19 ............................78.947 

18 ............................83.3333 

17 ............................88.235 

16 ............................93.750 

15 ...........................100

14 ...........................107.1428 

13 ...........................113.3864 

12 ...........................125 

11 ...........................136.3636 

10 ...........................150

09 ...........................166.6666 

08 ...........................187.5 


Il faudra être ultra-réaliste (21 juin 2011)

Sur la scène de la Gaîté Lyrique, Carl Craig et Moritz Von Oswald aux machines, Francesco Tristano au piano. À l’autre bout de la salle, les 3 membres du collectif Scale pilotent la diffusion de visuels à 360° sur les murs écrans. J’ai rencontré un des trois membre du collectif, Vincent Boudier quelques semaines plus tard. Il m’a dit n’avoir pas de volonté artistique particulière. Un des trois autres membres avait déjà travaillé avec Carl Craig et connaissait le style de graphisme qui convient au héro de la techno. Vincent est graphiste formé à la vidéo broadcast. Les 3 graphistes ont travaillé pendant 6 mois sur le projet, pas à plein temps, mais on est loin du boulot fait au dernier moment. Ils utilisent le nouveau Codec ProRes.Leur système est complexe : le piano à queue équipé d’une interface midi transmet des informations à Max/MSP qui les transforme en grille basse résolution transmise à Quartz Composer pour complexifier les données que WDMX interprétera en terme d’image. Je n’ai pas tout compris à leur système, mais c’est une usine à gaz. Ils ont travaillé les images sur Cinéma4D, RealFlow et After Effect, trois logiciels ultrasophistiqués de trucage et de modélisation 3D de la réalité. Au total ils utilisaient de 400 à 500 Giga d’images, quantité énorme et stupéfiante. C’est le grand cirque du Veejing. Les spectateurs émerveillés semblent murmurer : « oh la belle bleue ! » Le visuel est sophistiqué comme une sorte de feu d’artifice virtuel. Moi, je vais faire le petit théâtre bricolo à base de déchets graphiques, de formes Open GL et de poussières d’idées numériques qui traînent à profusion, comme les Africains font de magnifiques sculptures avec des vieilles boîtes de conserve usagées. Je me dis par exemple : je pourrai projeter l’intégralité du texte de mon récit Acouphène-Parade. Personne n’a encore fait ça. Et bien non ! Ben Fry (par ailleurs auteur avec Casey Reas du logiciel « Processing ») avait rentré l’intégralité du texte du roman de Mark Twain, « Le voyage des innocents ». Le texte est analysé et visualisé sous forme d’animation orbitale en 3D. Au fur et à mesure que le texte est lu par le programme, la structure visuelle montre une relation de flux dynamique entre les mots. Aujourd’hui je viens de découvrir le soft « Processing » et j’ai comme l’impression que ma vie va changer. Ce logiciel libre Open GL génère une programmation en Java simplifié, destinée aux graphistes. Il est comparable à Quartz, mais il relève d’une tout autre structure logique pour écrire des animations chatoyantes.

Il faudra être ultra-réaliste autant sur le plan technique
qu’artistique et musical.

Je décide de bricoler des « motions graphics », mais pour bricoler, il faut savoir monter en vidéo. Malgré les millions de plug in audio, le fondamental du son audio reste l’enregistrement. Malgré tous les softs Veejay tous plus extraordinaires les uns que les autres, le « deus ex machina » de l’image reste la caméra et le montage. Dans mon projet, la caméra est remplacée par des graphics et des résidus visuels, mais le montage reste fondamental. Il est l’interface avec le rythme de la musique. Je ne sais pas monter du tout. Je suis dans la situation du type qui arrive dans un aéroport sans passeport, pas question de s’envoler. Je vais faire un stage de montage vidéo de 15 jours sur Final Cut Pro, autant profiter des stages offert aux intermittents du spectacle plutôt que de sombrer dans la morosité. Ca y est ! Je suis inscrit, cette fois je n’aurai réfléchi qu’une journée pour me décider. Les dés sont jetés, plutôt que partir en vacances et me faire chier tout seul, sans femme, je vais étudier.

J’ai toujours oscillé entre l’audio et le visuel. Je ne voulais plus voir une image, un visuel, une fois rentré chez moi après de longues journées à gagner ma croûte dans les chaines de TV. Je ne voulais m’occuper que d’audio et de musique. Maintenant ma dernière chance de retrouver un publique sera d’utiliser l’Audio et le Visuel.

Je suis le genre de musicien à ne jouer qu’une année sur deux pour la fête de la musique. Aujourd’hui, c’est le trentième anniversaire de cette fête. Aux informations, j’entends une déclaration par Jack Lang à l’époque du début. En substance : « une nation dynamique sur le plan économique doit être joyeuse, alors vive la musique ! » Je ne suis pas joyeux. Je ne joue pas. Je sors me promener dans mon quartier. Il y a toujours partout des bons groupes. Un cheveu seulement différencie les groupes professionnels des amateurs qui fourbissent leurs sonorisations le 21 juin. L’air est électrique. Je m’approche du quai François Mitterrand. Je n’y ai jamais vu autant de monde, près du Batofar. Une foule de jeunes qui veulent s’amuser. L’air résonne : « boum, boum, boum, chic, queue, click, boum, queue ». Il y a toujours des jeunes collés à un mètre d’enceintes monumentales. Ils en prennent pleins les esgourdes. L’air des rues est saturé de sonorités. Une sorte d’ambiance « free/bifteck », c’est-à-dire des multiples couches de musique qui se recouvrent d’une façon anarchique lorsque l’oreille est équidistante des différentes sources sonores. Dans la foule, une dame très âgée danse avec ostentation et s’amuse. Beaucoup de gens ont le sourire. Je rentre me coucher, planquer mes tympans sous l’oreiller.

Je suis à fond depuis au moins trois mois. Je bouge peu de chez moi. Je suis rivé à mon ordinateur. J’ai passé un temps fou, des jours et des nuits à télécharger une bonne douzaine de versions de « démo » de logiciels graphiques orientés « Veejing » et « Motion Graphics », à lire des modes d’emploi en anglais dont le plus court fait 50 pages mais la plupart 300 pages chacun. J’ai essayé de comprendre comment fonctionnent ces logiciels, quelles sont leurs qualités, défauts, ergonomie… Lequel correspondra le mieux à mes besoins créatifs.

Résultat de cette cogitation : tout ça n’est qu’un problème de standard d’image, de codec (compression, décompression du signal), tout ça n’est qu’un problème de format 4/3 ou format large 16/9, tout ça n’est qu’un problème de conversion de format entre les pixels carrés 1:1 d’ordinateurs et les pixels rectangulaires 2 :1 des téléviseurs ou des projecteurs. Tout ça n’est qu’un problème de résolution d’image, volonté économique d’être en SD ou HD (Standard Definition ou Hight Definition.) Résolution de l’idée graphique en cascade de pixels.

Le Veejing est concomitant de la télévision, de la publicité et du cinéma, il est voisin de l’art contemporain et fils des jeux vidéos. Certains clips sont réalisés directement à partir d’un jeu vidéo. Moi, c’est pas ma tasse de thé. La TV a un rythme lent comme l’art contemporain et le cinéma. Les jeux vidéos, la pub sont souvent agités, presque épileptiques comme le Veejing. Il s’agit d’une prise de pouvoir sur le spectateur par prise d’otage et incarcération de ses rétines.

Le logiciel Quartz Composer m’a donné beaucoup d’idées. J’hallucine quand je vois en lettres de néon gigantesque sur les murs de la Bibliothèque de France le nom de « Richard Prince, American Prayer ». Même le titre est piqué à Jim Morrison. Son exposition est intéressante. Il est le prince de « l’Appropriation Art » la conséquence suprême des Ready Made de Marcel Duchamp. J’avais eu la même impression en arrivant sur l’avenue Paulista à São Paulo une gigantesque affiche annonçait en lettres d’or le nom de mon pote « Jacques Donguy » qui était plutôt curateur de l’exposition sur l’histoire de la poésie numérique qu’artiste invité. Sa seule œuvre était un petit film réalisé par ses élèves et dont j’avais enregistré la musique, toujours au dernier moment. Je l’accompagnais pour jouer sur ordinateur la musique de sa performance live. Mon nom n’était cité nulle part. J’étais enchanté. Bien sûr, c’était une erreur, tout était fait au dernier moment. Dada / Fluxus sert à tout.

Donc j’en reviens à ce Quartz Composer. Dans le mouvement d’appropriation générale de tout par tout le monde sur Internet, Quartz Composer si l’on possède des rudiments de programmation informatique, offre un nombre de forme préprogrammées à utiliser par le biais de patches. Ces formes peuvent être transformées, voir détournées dans le sens situationniste. Je veux programmer les poncifs de l’art contemporain, les fontaines de Duchamp, la Joconde à la moustache jusqu’à la Maja Desnuda couchée dans la poussière numérique en mouvement 3D. Ces poncifs rangés dans des boîtes, inspirées par Fluxus, seront coordonnés à des interpolations cubiques, sinusoïdales, quadratiques ou exponentielles. Ces interpolations donnent une impression de mouvement sexuel. Les boites s’emboîtent de manière obsessionnelle. Au même titre que l’essentiel de l’image TV est le shoot de lumière, l’essentiel sera le mouvement robotique qui dissimule la symbolique de l’activité sexuelle sublimée dans la religion numérique.

On peut même imaginer un VJ set dans le style situationniste compilant toutes les conneries actuelles écrites sur les boîtes de sucre, de soupe, de lessive, corn flakes, tous les objets accompagnés par les plus spectaculaires aberrations médiatiques papier ou virtuel. Bonne idée mais je n’ai pas envie de faire ça. Je veux faire rêver. Je veux de la musique forte, pas du tape à l’œil.

Pour résumer :

Les V-Modules sont sublimes mais trop de bogue. De plus la sortie vidéo est ingérable en concert, prise uniquement en charge par « live ». Chaque changement de projet entraîne une fermeture de la sortie, puis une nouvelle entrée en manuel à chaque nouveau chargement, puis un drag and drop vers la sortie principale. Impossible en live.

Isadora crée par Mark Coniglio de TroikaTronix destiné pour la danse est le soft le plus sublime. Une structure poétique fascinante, mais assez complexe à utiliser. Il demande un opérateur entièrement dédié à ses commandes autant dire que ça ne rentre pas non plus dans mes cordes. Le réalisme me conduira à pré-monter une grande partie du projet. De toute manière le deejing est une sorte de montage automatique ultra-rapide.

CellDNA serait idéal dans sa fonctionnalité, totalement implémenté dans M4L. Une merveille pour faire un projet simple et bricolo comme je le souhaite. Il faut faire une grande collection de cellules, films ultra court apparentés à des samples, tout réduire en .mov et JPEG parce que le système ne lit pas ou mal les Quartz et Flash. Mais la qualité SD est limite acceptable. Il y a encore 3 ans cette qualité médiocre de résolution d’image pouvait passer, mais plus maintenant. Et puis le système se comporte un peu dans le style Window 98, c’est-à-dire des sauvegardes fantaisistes, jamais exactement la même réponse à la même commande. Un automatisme complet mais incertain et erratique. Dommage, cette version n’est pas fiable en live, tout du moins dans un contexte où l’on veut faire un truc ultra-précis. Par contre, ce soft doit être très sympathique pour improviser.

Alors je suis inscrit à un stage de montage et puis merde. Je ferai une œuvre construite, divisée en une douzaine de bouts avec quelques boucles internes pour ne pas être dans une configuration playback. Un sorte de partition graphique ne sollicitant de ma part en concert que quelques START et restart pour pouvoir jouer de mon instrument sans angoisser.

Propos entendu à la conférence de sortie du « Guide des festivals numériques » : « Maintenant les artistes font des CD uniquement pour que l’on parle d’eux dans les médias et qu’ils soient invités dans les festivals ». Certains jours, je suis découragé par ce monde de réseaux verrouillés par des chacals et des requins. On est le 23 juin. Je repars une nouvelle fois à zéro. Je suis le musicien perdu du circuit Zéro Réseau.

Et aussi un petit logiciel gratuit et génial : Pixel Toy, mais en qualité SD seulement :
http://www.lairware.com/pixeltoy/

Pourquoi faire compliqué quand on peut faire simple. (22 mai 2011)

Je ferme les yeux pour jouer du saxophone. Derrière mes paupières, je vois des ombres, des lumières, des images, des couleurs. J’ai des sensations abstraites, des émotions indéfinissables et obsessionnelles. Comment transmettre au public cette kinesthésie lyrique et synesthésie joyeuse ? J’ai écrit ce dossier pour trouver une réponse créative à une éventuelle production à la Gaîté et pour te donner des arguments. Cet article est le dernier écrit. Tu liras les autres du plus récent au plus ancien. Chaque page explore une direction différente, il ne s’agit pas d’un projet définitif mais d’une réflexion contradictoire.

J’écris, assis sur un banc public. « C’est très relaxant » me dit une femme chinoise. Elle m’empêche de terminer mon texte et me propose un massage. Elle est désirable. Elle me laisse imaginer des trucs. « Are you sure you want to quit, Yep or Nope ? » J’ouvre les yeux : écran total. Persistance rétinienne. Persistance auditive. Je veux capter l’attention par la vidéo. Je veux emprisonner la raison musicale par l’œil. Je veux stimuler le raisonnement par l’électrification des images.

Le professeur Claude-Henri Chouard, spécialiste ORL, auteur de « L’oreille musicienne » me propose d’apprendre à lire sur les lèvres pour pallier ma surdité. C’est une belle idée à exploiter en image : gros plan sur mes lèvres de récitant lisant avec mes dents jaunes Acouphène-parade. Grâce à la colorisation et une palette d’effet vidéo, on transformera ma bouche de quinquagénaire en visuel agréable. Se voir sur un écran est à la fois une mort instantanée et une éternelle jeunesse. Ou alors le texte sera lu par une voix synthétique doublée à l’image synchronisée par une belle bouche de femme élégante.

J’aime l’élan graphique du poète sonore Bernard Heidsieck. Un de ses livres : « Djerassi » est fait uniquement de bandes magnétiques et de bandes amorces multicolores collées sur des feuilles de papier avec un texte. Une idée simple et créative. J’aime asssi les affiches lacérées de Jacques Villeglé, elles me font penser à des scratch de vidéo jockey utilisant toutes sortes de sources vidéo pour alimenter la machine à image.

À la fin des années 90, j’avais découvert le logiciel V-Jamm créé pour le groupe Cold Cut, les grands ancêtres anglais, pionniers de la vidéo créative en musique. Je me souviens avoir été suffoqué par la nouveauté du principe : cliquer sur un clavier de piano et jouer de l’image comme on joue d’un synthétiseur midi.

Chaque semaine, je découvre un nouveau logiciel concernant la vidéo musique. D’abord Vizzie intégré à Max-MSP-Jitter, accessible à travers une sorte de labyrinthe informatique par M4L d’Ableton, puis Resolume Avenue de très haute qualité avec deux sorties vidéo faciles à gérer, puis Grand VJ d’Archaos, celui que je préférais mais il a tendance à pomper le processeur jusqu’au bug, la version de démo a même réussi à faire griller ma carte graphique alors j’en suis un peu revenu. Ce logiciel est facile à utiliser, proche de l’ancêtre V-Jamm par son clavier midi amusant avec une palette d’effets époustouflants. Par contre, on est vite enfermé dans les presets avec les tics VJ exploités massivement ces dernières années. À noter que ces logiciels sont prévus pour lire des animations Flash, je vais devoir me remettre à Flash, pour en profiter. J’ai toujours été fan des petits logos et lettres qui bougent dans tous les sens. J’étais moins emballé par Modul8, un logiciel très « style jeune » dont je n’ai pas compris la logique. Je n’ai pas réussi à m’informer sur Catalyst, système vu sur un plateau télé pour faire des animations équivalentes à celles d’un VJ au ralenti. Je n’ai pas non plus essayé les séries DMX plus orientées lumières et effets pour la mise en scène de théâtre.

Vizzie est maintenant programmé pour M4L. Mais, l’hallucination, le fin du fin ce sont les incomparables V-Modules tout récemment programmés par Fabrizio Poce utilisant Open GL à télécharger gratuitement dans la tradition des pionniers d’Internet. Ce travail titanesque d’une centaine de modules vient de m’ouvrir des directions ultra-créatives. Ces modules sont compatibles avec Vizzie plus stable sur le plan informatique. Je me retrouve à commander un système incomparable de créativité musique vers l’image dans l’environnement fiable et fluide de « Live » d’Ableton.

Pour l’instant, grâce à cet environnement M4L plus les modules Open GL je pourrai montrer (en travaillant dur) en moins de 15 jours une maquette vidéo et musique du projet Acouphènes-Parade. Certaines séquences sont fascinantes, les éléments graphiques s’animent en fonction du jeu de saxophone ou de clarinette basse. C’est un peu dans l’esprit de ce que nous avions montré au Cube en 2008, moi-même à la clarinette basse, Diemo Schwarz (de l’IRCAM), cataRT live corpus-based concatenative synthesis pour Max/MSP + Jitter et le logiciel Plumage écrit par Christian Jacquemin (du CNRS) piloté par Roland Cahen (de l’ENSCI). Un dispositif ultra-compliqué à gérer, que nous avions un peu simplifié au ICMC de Belfast. Ces musiciens et ingénieurs représentent une sorte de sérieux absolu de l’institution universitaire, ils ne sont pas intermittents du spectacle en danger de se casser la gueule chaque jour, comme moi. Nous n’étions pas sur la même planète, nous n’avions pas les mêmes objectifs, je m’en suis rendu compte plus tard. Maintenant grâce à ces V-modules, je peux programmer seul un dispositif aussi excitant. D’ailleurs le titre du tutorial de Fabrizio Poce s’appelle « Alone ». Il me faudra encore quelques semaines de travail pour être au point.

Il faut reconnaître que les V-Modules peuvent boguer de temps en temps. À l’instar d’artistes comme Ryoji Ikeda qui présente son spectacle dans tous les grands musées du monde, je pourrai envisager de préparer minutieusement le travail dans une petite régie vidéo (3 jours de travail avec un bon monteur truquiste) pour simplifier et stabiliser l’emploi sur scène à la limite du semi play-back ou alors choisir une version plus improvisée et risquée comme en leur temps les « Farmers Manuals » en fonction des contingences de machines virtuelles. Tel que je l’imagine actuellement, le système gère 6 logiciels en cascade. C’est assez complexe et instable au niveau informatique. (Ou alors j’embaucherai un jeune connaissant cette intégration M4L pour gérer cette partie en live). Pour que le système soit stable, il faudra utiliser deux ordinateurs : un pour le son et un pour l’image. La sortie audio sert de « trigger » pour l’ordi image.

On discutera et, on choisira la solution la plus efficace pour le spectacle. J’ai encore du travail devant moi pour trouver la bonne solution, simple, efficace et pragmatique.
Pragmatique : j’ai passé 25 ans de ma vie comme intermittent du spectacle à faire l’opérateur sur synthétiseur d’écriture dans les chaînes de TV sur des grosses émissions en direct, et crois-moi j’ai une culture de la technologie qui fonctionne correctement. (Même au théâtre du Châtelet, j’avais vu DJ Spooky en plein bug ! Moi je veux un truc sécurisé : No bug !) En parallèle de la TV, je jouais de la musique marginale mal payée. Maintenant je suis lessivé. Je suis devenu totalement schizo à partager ma vie entre broadcast et musique. Overground et Underground. J’étais tellement gavé d’images que je ne voulais pas en mettre dans ma musique. Je n’avais pas de télé chez moi. Mais j’étais resté passionné par les problèmes de synesthésie musique vers l’image. j’avais monté en 1997 « Psycho Color » au Lieu Unique de Nantes. Enchantement et désenchantement par l’image.

En cette fin du mois de mai, je viens de découvrir comment programmer les animations Quartz Composer de Mac OSX, des belles animations lentes et fluides programmées avec des patches reliés par des câbles virtuels. C’est le même principe que MaxMSP. Je suis sidéré de voir à quel point les logiciels son et image sont proches. Uniquement de la programmation. On ne joue pas, on ne dessine pas. Il n’y a pas d’outil plume comme dans Flash. Les animations Quartz Composer servent l’architecture Mac comme les économiseurs d’écrans. Elles sont intégrées à des logiciels spécialisés VJ comme VDMX et permettent aux danseurs de souffler un peu et de ne pas sortir complètement frappé par l’agitation clignotante. Quartz travaille en 60 images par secondes alors que Flash est fréquemment utilisé à 15 images par secondes. Historiquement les clips et spectacles de VJ devaient livrer une nouvelle idée graphique toutes les 5 secondes ce qui est un boulot de dingue. Je revendique la lenteur de l’épuisement. La lenteur camarade… Il peut très bien y avoir des plages de couleur unie, à la James Turrell. Livres à consulter : « Quartz Composer Book » de Futurismo Zugakousaku (en japonais). « Learning Quartz Composer : A Hands-on Guide to Creating Motion Graphics with Quartz Composer » de Graham Robinson, et Surya Buchwald.

Et puis je viens de télécharger la version de démo de VDMX, encore un soft génial. C’est celui qui était utilisé par Vincent Boudier pour le spectacle de Carl Craig & Moritz von Oswald à la Gaîté en avril. Ce logiciel est assez compliqué, mais semble solide comme un mélangeur vidéo, il ne lit pas Flash, mais il est très orienté Quartz Composer. En fait, je n’ai pas encore réussi à l’utiliser correctement. Il dispose comme Resolume Avenue d’une fonctionnalité intéressante : lire et projeter quantité de textes sur l’écran.

Une autre hypothèse du spectacle Acouphènes-Parade c’est de diffuser l’intégralité du texte du récit sous forme de calligrammes comme un prompteur vu par le public sur l’écran. La voix serait synchronisée au texte, une sorte de sous-titrage de la musique en version originale. Le texte graphique sera mélangé à d’autres éléments comme les V-Module. On peut imaginer tout un tas de possibilité du play-back pur et simple à certaines parties lues par moi-même avec ma casquette de récitant, en même temps que la typographie s’affiche sur l’écran.

Pour résumer après plusieurs semaines d’évaluation des différents logiciels, il me reste à choisir entre un solide logiciel VJ : Archaos, Resolume ou VDMX et en conséquence choisir vers leur tendance : Resolume plus orienté vers l’hystérie de Flash ou VDMX plus orienté vers l’obsession de Quartz Composer. Je devrai choisir entre apprendre Flash ou Quartz plus les V-Modules directement connectés à mon logiciel favori, Live d’Ableton. Certains jours, je suis absolument découragé. D’autres jours je suis pris d’une joie grisante consécutive à l’usage de ces merveilles technologiques. Je suis sur le cul, c’est trop le pied ! Une collaboration avec un VJ ? Ca serai cool !

Quoiqu’il en soi, le fil conducteur sera simple :
1 – L’acouphène entendu pendant tout le spectacle, bruit blanc, bleu et rose sera symbolisé par des images d’eau, de feu, de foules, de transports.
2 - Le texte du récit se déroulera sur l’écran avec une belle typographie et quelques logos d’oreilles, d’œil, d’ordinateurs et petits trucs animés.
3 - Le récitant, ou la bouche du récitant sera visible à l’écran et synchronisée au son.
4 - Un instrument de l’orchestre pilotera toujours des graphismes à base de polygones générés par les matrices 3D des V-Modules

Documentation extraite de The VJ book » by Paul Spinrad

« The revolution will not be televised, but it’s certainly beeing projected »
David Pescovitz

History chapter (p. 17)
Light performance has always occupied a funny place between science and art, influence and irrelevance, high culture and low culture, dependence and independence. It has always been driven by technology, which perpetually attracts dreamers looking for the next revolution and tinkerers who prize demonstration-value above more intuitive aesthetics. At the same time, it answers many longtime artistic yearnings and its potential really is, only just now, beginning to be realized. Like any self-conscious avant-garde, it has functioned as both a breeding ground for creative innovators and a comfortable cocoon for the talentless seeking an excuse for their unpopularity. For some performers, it has been an all-consuming passion; for others, merely a gimmick they tried in order to distinguish themselves.

History chapter (p. 24)
The consumer electronics industry hasn't clued in to VJ yet. They haven't noticed that (as beginning VJs routinely joke and sympathize about) the avocation has an uncanny ability to part people from their money. But when they do catch on and steer their ship around, VJ culture will change, and perhaps people will start having the same "I was a punk before you were a punk" arguments that have characterized so many co-options in the past.

Olivier Sorrentino interview (p. 30)
I think the word "Jockey" is very important in VJ-- it's a visual jockey. A jockey rides different horses, improvises, works by the seat of their pants. The term fits the occupation very well.

Olivier Sorrentino interview (p. 31)
A VJ, like a DJ, is fundamentally a curator… You could say that the filmmaker or the band is like a hunter, while the DJ and VJ are more like gatherers-- it's a hunter/gatherer dichotomy.

Kathleen Forde interview (pp. 39-40)
If you look at the development of the software that live visual artists use from a time-line perspective, you can see a real influence of what came before and what after, a clear evolution. Research and design and programming and software are their own art form… We're getting to a point where the research and the process of creating tools that enable more artwork to be made is, to me, almost an extension of Performance as Object-- sometimes that's as much of an artistic moment as many of the objects, performances, and scores, that come out of it.

Stefan G interview (p. 41)
I've seen many generations of kids go blurry-eyed when they first look at the screen; you can see that they're thinking of all the things they want to do. So they'll try VJing for a little while, but it's often a brief infatuation, and you can expect a drop-off point after about a year. But if they're committed to it, just like in romance, they'll start putting the necessary work in, creating original content and developing a performance style... It's at the two-year mark that you really see who's still standing.

Stefan G. interview (p. 45)
The skill set that VJs have been developing independently will replace a lot of the skill set that animators now use in Hollywood. In the film industry, people probably wouldn't believe that you can produce twenty minutes of finished animation, keyed, from scratch, in just three weeks. But within VJing, it's a necessity-- it's how you stay in business.

Craig Baldwin interview (p. 58)
[Bruce Conner] creates jarring new interpretations for materials that come from a completely different context. For example, Conner's "Report," a montage film about the assassination of JFK. In a couple of places, he shows some high-speed lab footage of a bullet passing through a light bulb, going a little further each time you see it. What does that mean? In context, it's obvious that it represents the bullet going through Kennedy's head.

Ivan Dryer interview (pp. 62-63)
There's always been a synergy between the audience and the performer. Each laserist has his or her own take on the interpretation of the music, and the audience responds more when they know that there's a real, live performer there, rather than just a button-pusher. They get off on that, and we encourage their response continually throughout the shows. We liked it when people would applaud, or hoot and holler, or whatever else…. I'll never forget, I was sitting next to Tim Leary the first time he saw Laserium. At one point in the show, he just reached up his arms, as if to gather it in. He just had this spontaneous reaction-- and he was straight at the time.

Norman Perryman interview (p. 69)
Jackson Pollock used to spend hours at the Guggenheim museum looking at Wilfred's light machines before he began painting his drip paintings. Pollock was also inspired by music, and had he lived longer I think he might have become a sort of VJ figure. Movement was what interested him-- that's what "action painting" was all about.

Melissa Ulto interview (p. 79)
One friend described me and the VJs I perform with as "monitor junkies." You really need to be with your rig. This has become automatic for me-- I reach for certain knobs before I even consciously know it. In my subconscious, I feel where I'm going to go next, and then it happens. It's very primal, like getting into a pre-cognitive state. You're doing high-level thinking in order to operate all this complex equipment, but it's also primal, because it's all about how you feel and how you're reacting. It's my drug. I don't need drugs-- I have mixing.

Bill Cottman interview (p. 84)
Most VJ content doesn't interest me-- the flashing lights and swirling and pulsating images. What interests me is technology that enables me to recollect and rearrange images, transitions and timing in response to the moods in the room…. I could do more, like mix in some live camera. And that's all slick and cool-- but again, the question is Why? What would that add to my story? Showing you as an audience member, does that add something to my story? If I don't have an answer to that question, I won't do it. I'm not going to add something just because it's technically possible.

Kitchen Basics chapter (p. 136)
[I]n the VJ's case, inputs are mainly visual, and these may include (but are not limited to) anything they've ever shot with a camera, recorded from television, rendered with software, played on DVD, downloaded from the Internet, or scanned from the pages of a book or magazine. Some of these sources resonate instantly as part of our shared visual alphabet of cultural meaning: familiar news clips, movie scenes, landmarks, artworks, logos, celebrities, symbols, and even words and phrases. Others carry a more limited or personal significance, while others are simply interesting-- aesthetically, intellectually, emotionally, or whatever.

Rigs chapter (p. 145)
Some VJ software lets you to scratch video clips, that is, run them forwards and backwards following your hand motions, using only the mouse or trackpad. You do this in the Preferences by assigning the mouse's horizontal and vertical positions to MIDI controller numbers, typically 7 and 8. Associate one of these to a clip's position or speed, and you're scratching with the mouse.

Standards and Conversions chapter (p. 156)
VGA (Video Graphics Array) and its extensions are analog standards for PC monitors, all of which run over a 15-pin connector. This format assigns different pairs of pins to red, green, and blue components of the video image, as well as dedicated pins for horizontal and vertical synchronization and other information. This means that HD15 is a handy cable standard for carrying multiple parallel connections that are not VGA-compatible, such as various component video formats (described below). Some equipment uses HD15 cables in this way, an arrangement referred to as "component over HD15," "RGBHV over HD15" or some such phrase. This should not be confused with VGA.

Hardware chapter (p. 167)
Distribution amps take a single video input and amplify and duplicate the signal to several outputs, usually four or eight. Splitting the signal requires power, so distribution amplifiers, unlike switches, must be plugged in. People characterize distribution amplifiers by how many outputs they can feed: "one into four," "one into seven," etc. ... Distribution amplifiers are also sometimes referred to as "splitters," but "splitter" more often refers to a cable or small adapter that splits signal without boosting the power, so the outputs have only a fraction of the brightness of the input. These passive devices are only good to perform with if reduced brightness is part of the plan.

Software chapter (p. 173)
Some apps, such as Arkaos, let you get started quickly and do great stuff, but stay at a fairly simple level. Others, such as Isadora and VDMX, are more serious applications which reward a steeper learning curve with greater control and flexibility. At the far end of the spectrum is Max/MSP + Jitter, a multimedia programming language (Max/MSP) with a compatible library of video objects (Jitter), which you can learn by taking a three-credit, semester-long course at many art schools.

Legal Issues chapter (p. 184)
Copyright law recognizes special exemptions for public schools and nonprofit educational institutions, provided that the performances have an educational purpose, are performed by the instructors and pupils themselves (rather than an outside artist), take place in the regular classroom, require no admission charge or other payments, and are lawfully made. If you are not a real teacher, it would be ill-advised to claim, for legal purposes, that your VJ performances are "educational." But if you are a professional educator, you have a special opportunity to do interesting and fun video work with your students.

Lessons from Film Editing chapter (p. 188)
Reaction shots of people's expressions are always close-ups, and they're typically short, less than two seconds… It's generally most effective to show a reaction shot first, to make the audience wonder what the character is reacting to, then show the action, which explains it, and then cut back and show the reaction again, reinforcing the connection.

Audience and Improvisation chapter (p. 195)
Create patterns and then revisit them later. Audiences love seeing things they recognize from earlier in the performance. Start, but don't finish patterns that you've established previously-- leave the audience to complete them in their own minds.

Disclaimer and Art Rant chapter (p. 196)
Language is a fantastically powerful compression scheme, but also lossy, and it's even more unreliable because everyone codes and decodes differently. Perhaps the most data of all is lost when language is used as a linear narrative, storytelling, to describe the sweeping generalizations that we call history.

Predictions and Reflections chapter (p. 202)
Using VJ tools, an adept trial lawyer could razzle-dazzle a jury -— lead them through an argument, weave together evidence, and tell a story with seamless, seeing-is-believing authority. Expect many of tomorrow's hotshot lawyers to possess mad VJ skills in addition to silver tongues.

2 - Un autre livre très luxueux édité en quadrichromie en Californie en 2005, il y a 6 ans !
http://www.vjbook.com/

‘vE-”jA: Art + Technology of Live Audio-Video is a global snapshot of an exploding genre of tech-art performance: VJing and live audio-video. The book covers 40 international artists with 400+ colour images and 50+ movies and clips on an accompanying DVD and web downloads.

Regionally organized, the book showcases VJing and live A/V not as an isolated art-tech phenomenon for geeks, but as a global art movement with sophisticated creators and audiences alike.

The organization of the book in this manner has lead to discoveries of the differences and similarities in the devlopment of the art including the influence of specific urban styles, political and social states, cultural influences, as well as hardware and software development and influences in specific regions.

Introductory essay by Marius Watz brings forth the role of synchronicity of audio and video technology in cinematic performances; Barry Munsterteiger, Interactive Media Group Senior Designer for Apple Inc., focuses on the role of art in the evolution of technology; Grant Davis (VJ Culture) provides supportive information on VJ specific hardware and software.

In addition, essays by contributing artists cover local cultural aspects influencing VJ scenes globally and provide insight on the inflluences and productivity of cities such as London, Helsinki, Barcelona, Tokyo and general scenes of US, Austria, France, Netherlands and Australia.

3 - Et aussi un autre livre super luxueux en bichromie
« VJ: Audio-Visual Art And VJ Culture » de Michael Faulkner et D-Fuse, un groupe de graphistes londoniens. Ils ont fait notamment une pièce avec des projections à 360 degrés d’une sorte de jardin, plantes vertes, lumière vert

Le bruit - Extraits de Wikipédia

Bien que le bruit soit un signal aléatoire, il possède des propriétés statiques caractéristiques. La densité spectrale de puissance en est une, et peut être utilisée pour distinguer les différents types de bruit. Cette classification par la densité spectrale donne une terminologie de "couleurs". Chaque type est défini par une couleur.

Le bruit blanc
De même que la lumière blanche, le bruit blanc est un signal (ou processus) avec une énergie équivalente par cycle (en Hertz). Cela se traduit par un spectre « plat » lorsqu’on en trace le diagramme. Autrement dit, le signal a une puissance constante sur n'importe quelle bande du spectre. Par exemple, l'intervalle de fréquence allant de 40 à 60 Hz contient la même puissance que l'intervalle allant de 4000 à 4020 Hz.

Le bruit rose
Le spectre sonore du bruit rose est plat dans un espace logarithmique. Ainsi, ce type de bruit est caractérisé par une puissance égale sur des bandes proportionnelles en largeur. Or, l’appareil auditif humain est souvent étudié dans un espace logarithmique. En effet, l’oreille humaine ne perçoit les sons que sur des bandes de largeurs proportionnelles : un doublement de fréquence sera perçu en termes de puissance sonore de la même façon, quelle que soit la fréquence de départ. Ainsi, en musique, on a défini les octaves : une octave correspond à un doublement de fréquence et est perçu comme contenant la même puissance sonore.

Le bruit rouge (ou brun)
Dans les domaines qui utilisent des définitions précises, la terminologie "bruit rouge", "bruit brownien" ou "bruit brun" fait référence au son ayant une puissance sonore qui décroît de 6 dB par octave lorsque la fréquence augmente. Le bruit "brun" ne correspond pas à un spectre sonore pouvant rappeler le spectre lumineux de la couleur brune : brun provient en fait d'une distorsion de l'expression "mouvement brownien" (où brown correspond à la couleur marron en anglais). Le nom "bruit rouge" est inspiré de la forme du spectre sonore, le bruit rose étant au milieu du blanc et du rouge. Le bruit rouge est aussi appelé "random walk" (marche au hasard) ou "drunkard's walk" (marche du soulard).

Le bruit bleu
Dans le domaine de l’informatique graphique, le terme « bruit bleu » est parfois utilisé d’une façon plus approximative pour décrire tout son de puissance sonore minimale à basse fréquence et ne présentant aucun pic lorsque la fréquence augmente (croissance constante).

Le bruit violet
La puissance sonore du bruit violet augmente de 6 dB par octave lorsque la fréquence augmente. Ce bruit est aussi connu comme étant un dérivé du bruit blanc.

Le bruit gris
Le bruit gris est un bruit rose soumis à une courbe psychoacoustique d'intensité constante (telle qu'une courbe A-weighting curve invertie sur un intervalle restreint de fréquences), de telle sorte qu'un auditeur ait l'impression que l'intensité est égale pour toutes les fréquences.

Pourquoi faire simple et bon marché quand on peut faire compliqué et cher (Fin avril 2011)

Acouphène Parade peut être créé dans la petite salle qui n’est pas du tout conçue pour la musique acoustique. Le son suit le concept d’image à 360 degrés. La moindre micro-voix ou instrument créera forcément un larsen. Dans ce cas, on sera obligé de transformer la salle magique en mini-salle de concert de la taille d’un bistro avec un fouillis de câbles, de retours, d’amplis et d’instruments qui gâcheront immanquablement l’espace dédié à l’image sonore. Il restera une trentaine de places pour caser des auditeurs, une moitié de la salle occupée par l’orchestre, la sonorisation d‘une pseudo scène.

Ou alors, on ne devra jouer que des instruments électroniques, des boites à rythmes, des échantillonneurs, des synthétiseurs encapsulés dans des ordinateurs (le Ewi, Sax midi à la place du bon vieux saxophone, la guitare et la basse jouées en ligne direct dans la sonorisation qui devra de toute manière être dans l’espace de la salle). La voix du récitant entièrement enregistrée. Ou alors, l’instrumentiste enfermé dans un tube transparent au milieu de la pièce accompagné par un DJVJ mais ça ferait un peu trop Futurama. C’est possible mais ce n’est pas la couleur sonore que j’imaginais : un bon orchestre avec une solide partie synthétique.

Les deux petits cotés de la petite salle sont dans le rapport 4/3, l’ancien format TV. La divine proportion du vingtième siècle. Le format historique d’avant le format large. D’une certaine façon le siècle a changé avec son changement de format d’écran. Les deux grands cotés sont dans le rapport de 8/3 soit deux écrans TV côte à côte. Au total ça nous fait un espace de 6 écrans dans le rapport 4/3, métaphore de six TV emprisonnant le spectateur auditeur. L’idée est simple comme un symbole. Cet espace deviendra l’intérieur de ma tête. Les mystères du cerveau transformé en télé. Le vrai est un moment du virtuel.

Je propose une création « tout enregistrée ». Le concert sera transformé en installation montrée au public pendant quelques semaines. L’enregistrement est une des grandes découvertes technologiques du siècle passé, l’enregistrement est le départ inaugural de la virtualité de notre monde. Citation obligée de Walter Benjamin : « L'Œuvre d'art à l'époque de sa reproductibilité technique » Non seulement le récitant devient image, mais chaque musicien de l’orchestre deviendra image autonome. Si le musicien joue une boucle, son image sera aussi bouclée. Le spectateur sera dans une salle ou un orchestre joue, chacun sa partie autonome, mais chacun collé au mur comme un papillon dans la lumière diaphane d’une dialectique passé/futur. Le passé, moment de l‘enregistrement conjugue le futur moment ou les oreilles et les yeux des visiteurs connectent le message sonore/visuel à leurs cerveaux.

Si, comme le préconise Mac Luhan, « le médium est le message », cette situation secouera les habitudes d’écoute et de vision. Chacune des 6 parties vidéo aura sa bande-son autonome en mono. Le tout recréera un mixage dont la stéréo sera fonction de la place du spectateur. (Ou nous emploieront du son synchronisé en 5.1 si c’est plus commode à gérer). Et bien sûr, il y aura un écran qui fera entendre/voir une métaphore de l’acouphène : un bon gros parasite de bruit blanc qui se transformera en ressac de la mer puis en décollage d’un avion en passant par un joli ruisseau, un embouteillage, un robot-marie et toutes les métaphores de l’hyperacousie, agoraphobie et foules envahissantes. Ce système graphique/musique montrera bien les différentes strates de la musique (un texte parlé sur une mélodie assise sur un rythme calé sur un continuum reposant sur des glitch et hiéroglyphes électroniques).

Chaque musicien sera filmé en plan séré sur fond sombre, à la manière de la peinture ancienne. Les visages surmontés d‘un casque audio, les mains et les instruments de musique ressortiront de l’image comme des taches de lumière d’un éclairage contrasté. L’habillement sera assez simple (avec quelques fantaisies comme lorsque le narrateur entends des voix comme Jeanne d’Arc). Les moyens techniques ne seront pas particulièrement originaux. Seul le regard particulier et l’étrangeté de l’audition seront actuels : prise de conscience des organes oeils et oreilles comme interface fragile du corps humain. (Il faut souligner que synchroniser 6 vidéos est relativement complexe sur le plan technologique). Les vidéos changeront de place en rythme avec le tempo de la musique. Par exemple le bassiste jouera sa partie paisiblement mais passera brusquement en quelques secondes de gauche à droite, d‘arrière en avant, donnera une impression de mystère quantique, chaque musicien changera de place comme un jeu de marelle pour individus lyriques, l’âme déchirée à l’écran.

Il y a des tas de façons beaucoup plus simples de monter un spectacle. Je vais m’y employer dès maintenant de manière bien plus artisanale et bricoleuse. Je vais le monter à toute petite échelle en version portable.

Preset et télévision

Les presets de Photoshop, Illustrator, logiciels d’image représentent tous un ensemble de manières de peindre selon un style particulier, comme un artiste automatique. On peut transformer en quelques clics, avec des filtres, une photo en tableau (principalement centré sur des styles académiques modernes, néo et post impressionnistes). Modélisation des pinceaux, crayons, plumes, papiers, encres et couleurs des peintres du passé. On modélise toutes sortes de choses et activités créatrices. On modélise des amplificateurs de guitare, des microphones des année 50, les synthétiseurs des dernières décennies. Les trucages des films fantastiques sont tous datés et découlent tous plus ou moins de presets calculés à l’avance par des ingénieurs. Idem pour les logiciels de VJ. Chaque preset réalise des trucages spectaculaires, presque des tics de la culture VJ, des trucs qui bougent dans tous les sens et mélangent toutes sortes d’éléments visuels hétéroclites à peu prêt en rythme. Des presets épatants qui donnent l’impression au VJ d’être un génie de la vidéo, alors qu’il utilise peinard les presets de logiciels ultra puissants entièrement programmés en usine.

Dans l’ensemble un concert spectacle DJVJ est très proche d’une émission de variété TV dans la forme. Du bruit, des voix, de la musique tout le temps avec des lumières partout, des couleurs, des trucs qui clignotent dans tous les sens. Chaque millimètre d’espace doit être occupé par une surface d’écran. Tout devient hologramme futile, écran irréel. Les yeux et oreilles sont pris en otage pour obliger le cerveau à se braquer sur un propos débile, fasciné et prisonnier par la forme : paillettes et étoiles. Une émission de télé exige des graphismes au clignotement de tempo lent pour ne pas gêner la compréhension du « message » alors qu’une discothèque à besoin de clignotements ultra rapide pour améliorer les performances des pathétique DJ qui n’auront de cesse de se prendre pour des musiciens alors qu’ils ne font souvent que jouer la musique des autres en prenant des airs inspirés. Les « danseurs » seront stimulés pour bouger leurs culs par les bidules clignotant rapidement comme les enseignes publicitaires des avenues des quartiers chauds vues sous psychotropes. Les machines à rythme font « buzzer » les danseurs (buzzer c’est faire tilt au lieu de baiser dans les jeux télévisée).

L’invasion des images fini par être l’invasion du n’importe quoi, une krypto-dictature télévisée propulsée par le capital spéculatif de l’économie virtuelle qui dévore et décore l’économie réelle. Plus rien n’a de sens précis. On se nourrit d’une soupe d’image matin, midi et soir, chaque jour, chaque semaine que fait le Dieu de la Bourse à monter ou descendre, chaque seconde au fil des années. J’exagère un peu, c’est comme si je disais qu’un livre est équivalent à son amas de lettres considérées dans le désordre comme une « novlangue » absurde. Il peut y avoir une réelle beauté graphique dans cette excitation des médias. Le désordre a un sens caché.

Le nouvel « Arte Povera » de l’ère technoïde est la généralisation très populaire du .gif animé sur Internet remplacé maintenant par les animations Flash. Internet gagne des parts de marché sur la télévision. Internet est une sorte de télé qui peut être fabriqué par tout le monde à base des déchets des œuvres de tout le monde. Sur Internet Flash et Gif clignotent de tous leurs feux de pixels économiques. Ils ne sont pas très différents dans l’esprit et dans la forme d’un plateau télé, simplement ils sont à la télé ce qu’est une lampe de poche comparée à l’éclairage d’une autoroute ou d’un aéroport.

Le fétiche vidéo

On entend la note composée de ses harmoniques, quand on souffle dans un saxophone, mais on entend aussi le bruit du souffle plus ou moins perceptible suivant les instrumentistes, leur technique et leur style. Ce souffle est proche d’un bruit rose, blanc ou gris. Présence du grigri, du fétiche associé à la musique.

Le fétiche en Afrique est un bout de bois sculpté (une musique pour ma comparaison) associé à des objets divers, cadenas, plumes, cordes, clous, tissus, perles, coquillages, corries, sang séché, mâchoires d’animaux, gourdes remplies de produits magiques, poils, plumes (le bruit blanc dans ma comparaison associé aux images vidéo de foules, cascades, eau etc.)

Une fêlure ? Vite une musique fétiche pour recoller les morceaux des amours perdus, des amis perdus, des gigs perdus…

Le fétiche : les milliers de cadenas fermés sur la rambarde du Pont des Arts à Paris, fétiches laissés par des milliers de touristes comme les pièces de monnaie jetées dans les fontaines de Rome. La chance ? L’amour ? Idée vidéo : filmer ces milliers de cadenas du Pont des Arts. Filmer aussi des centaines de masques Africains, Vénitiens, Robots, Martiens, Papiers et Papier mâché.

Le fétiche : nylon, cuir, latex, sexe, dentelles, peaux. Sexe sur internet. Rikers Island Prison (NY) : l’affaire DSK montre bien que le sexe est partout. Le sexe est dissimulé ou diffusé dans les médias. Ce n’est pas une découverte, juste une piqûre de rappel.

Le fétiche : les logos des équipementiers de sport absolument partout comme la faucille et le marteau en leur temps dans le bloc soviétique.

La kinesthésie : Outre le sens de l’équilibre commandé par le vestibule et les canaux semi-circulaires nous possédons également la kinesthésie, qui est la conscience que nous avons, même les yeux fermés, de nos membres, de leurs mouvements et de leur direction. (Wikipédia)

La synesthésie : Traduction de la musique en couleurs. Les synesthètes rapportent rarement les mêmes couleurs pour des tons donnés.

« Test patern, live set » de Ryoji Ikeda au Centre Pompidou, le 7 avril

Sur scène : deux ordinateurs, une petite console de mixage, pas de fouillis de câbles ni de machines, juste une petite table bien rangée devant un écran de cinéma. Ryoji Ikeda se contente de lancer les séquences image/son synchronisées. Aucune impression de jeu ni d’effort pour faire tourner en temps réel les logiciels complexes. Il se comporte comme s’il commandait un robot domestique. Rien n’est laissé au hasard ou à la fantaisie du jeu. Le «live» est entièrement préparé à l’avance. Même le plus malin des DJ court dans tous les sens pour aller au bout de son set. Ryoji Ikeda ne s’emmerde pas, il appuie sur des presets et l’œuvre audiovisuelle s’accomplit comme le miracle d’un tableau animé et sonorisé. Il pourrait se faire remplacer par un sosie, personne ne ferait la différence. Dans ses plus anciennes performances, son graphiste l’accompagnait sur scène, pour quelle raison n’est-il plus là ? Il est juste nommé en tout petit caractères sur le programme : Tomonagua Tokuyama. L’idée géniale : connecter la fonction d’onde sinus et cosinus dans un style graphique « yin et yang ». Damier noir et blanc, vide et pleins, bruits et silence.

Ryoji Ikeda expulse le «live» typique des DJ&VJ agités dans la nuit des boites de nuit pour l’activer dans le jour des musées. Gagne en intelligence, perd en sensualité. Un «live» de DJ met en scène un homme seul debout dans la pénombre qui déclenche un orage de sons et de lumières face à la foule, les oreilles droguées et les yeux scotchés. Les danseurs sont remplacés par des spectateurs assis. Les ondes sonores ne sont pas représentées sous leur bel aspect de sinusoïdes en courbes et rondeurs sensuelles mais visualisées en bruit blanc écrêté représenté par des échantillons numériques aléatoires. Pixels carrés et rectangulaires, variations infinies de traits, codes barres déclinés en mouvements rapides de la taille de l’écran jusqu’à ses plus petite subdivisions millimétrées.

Chaque grain de bruit blanc est synchronisé à une onde de lumière. Le spectacle ressemble à un gigantesque scratch de 45 minutes en noir et blanc avec juste 2 lignes bleues pendant quelques secondes. Ryoji Ikeda développe une idée parfaite, inattaquable, logique. Il trouve une solution simple à des problèmes complexes. La lumière blanche n’est pas décomposées en toute ses composantes des couleurs de l’arc en ciel mais conservée en aplat noir ou blanc. Zéro et un. Lumière et nuit. Le bruit blanc, qui contient toutes les fréquences à la fois, n’est pas filtré en synthèse soustractive pour donner toutes les notes de la gamme mais conservé tel quel en zéro et un. Le shoot de lumière vrille les pupilles, attaque le cerveau. Le déluge de sons semble provenir de derrière la tête ou de l’intérieur de l’auditeur/spectateur transformé en module numérique dédié à recevoir des informations binaires. Ryoji Ikeda propose un monde numérique parfait ou ni la panne ni l’accident ne peuvent exister.

Berlin Next à la Gaîté Lyrique, jeudi 31 mars 2011

La ville où tout se passe en ce moment : Berlin. Cette ville, entre mille merveilles technologiques et artistiques est le siège d’Ableton, le fabricant de « Live », le logiciel de musique le plus génial depuis l’an 2000. « Berlin Next », jeudi soir. La grande salle de la Gaîté Lyrique est en configuration « dancefloor », on sent le plancher flottant osciller sous les pieds de la foule en rythme. Le collectif « Beton », groupe classique à quatre têtes : deux DJ et deux VJ assis en rang d’oignon sur scène, dans l’ombre, comme pour un meeting face au public mais effacé derrière leur œuvre. Telematique et U-matic pour l’éclate des pupilles et Miwon and Bogger, employés du groove. L’image est juste en fond de scène.

Émotion glacée. Le public ne s’identifie plus à un chanteur ou un musicien mais à l’écran vidéo, substitut machine, la grande salle répond par une extraordinaire qualité de son toujours à la limite légale en décibel (fait gaffe à tes oreilles, lecteur). Des compresseurs atténuent cette limite et laissent une sensation de puissance sans pareil, c’est comme rouler en Cadillac. Les images de route à l’envers et à l’endroit dans des paysages de science fiction donnent cette impression de suspension. Rythme robotique et délicat. Un corps musical sans âme mais doué de raison.

Seconde partie : Sacha Ring en trio sous le nom de « Apparat et ses Scouts » un groupe de « pfadfinderei, 1er class digital shit ». Ils rentrent sur scène en vedettes, signes de la victoire avec les doigts. Le public lève les bras au ciel. On change de cérémonial : le trio électro scout est à fond dans l’apparat du funk, fini les sages pilotes du computer pépère. Ils vont jouer un set assez techno. Splendide début : les fumigènes sont recouverts par la fumée vidéo qui gagne lentement les murs latéraux gauche, droite puis l’écran du fond de salle. Cathédrale de lumière blindée de pèlerins adorateurs du corps. Déploiement de la pompe et du faste audiovisuel.

La salle semble glisser vers un lieu mythique dans le genre Kubrick électron. La transe digitale saisit le public. L’image prend le pouvoir. On sort du vidéo-clip cathodique des années 80’ pour rentrer direct dans l’intérieur de la télé, dans le plasma primitif du rythme image. Les cartes et logiciels, utilisés avec virtuosité par les graphistes musiciens génèrent une transe de similis Kandinsky, Pollock, Magritte, Klee, tout un apparat de l’art moderne abstrait ou géométrique giclant dans une folie de pixels sur des breaks de caisse claire. Écriture automatique d’artefact visuel sous réalistes. Une fille à ma gauche se frotte contre mon oreille bousillée. Le public semble comme aspiré par le plafond. Le lendemain Apparat laissera sur son site officiel, une photo et un lien Twitter « merci paris ! this was pretty dope. sorry for the quick end, something was wrong with the sound- i rather stopped. i hope you had fun anyway »

Trois heures debout. J’étais le plus vieux de la salle, l’ancêtre qui a connu les « light show » psychédéliques de la fin des 70’ et toutes les tentatives électro et aléas de l’art vidéo depuis 30 ans. Époque où les machines analogiques étaient lourdes, chères, extrêmement compliquées et tout le temps en panne. Le vingtième siècle est loin.

Notes d’intention visuelles & graphiques
pour une création d’Acouphènes-Parade.

« Un virus n’est peut-être que d’infimes éléments de son et d’image. »
William Burroughs, Révolution Electronique

Les deux murs d’image latéraux seront utilisés comme métaphore des parasites sonores et des vibrations de l’air. La vidéo éclairera la Grande Salle comme les vitraux d’une cathédrale, impression de papier peint hallucinogène. Le point de vue sera non narratif et non synchronisé en regard du texte et de la musique. Plutôt qu’une nouvelle technologie proprement dite, l’accent sera mis sur une nouvelle sensation de la technologie actuelle. Par exemple, la maîtrise des radiations ou des ondes est une technologie ancienne, mais elle est ressentie de manière nouvelle en 2011. Il ne s’agit pas d’un conflit entre bien et mal, zéro et un, sourd et sonore, in et out, bruit et harmonie mais d’une surchauffe de l’esprit et du corps. Etienne traverse la mer de sons et l’océan de bruits, toutes oreilles aux aguets avec ses musiciens. La mer vient de s’ouvrir devant lui.

[ Images fractales de mer ouverte sur les 2 murs latéraux + si possible, détournement d’images de la Mer Rouge entrouverte devant Moise, filmée par Cécile B. DeMille + images de chutes d’eau, cascades, chutes du Niagara… ]

Etienne poursuivi par les acouphènes fuit, dans un grand mouvement paranoïaque, les bruits parasites de son cerveau. Etienne assourdi par la voix de sa conscience totalement boguée cherche à atteindre la terre promise de la musique et du silence. Pendant son exode sonore, il rencontre DJ Dios qui lui donne le commandement 01 pour guérir de sa maladie électronique : « Transformer, par une opération de synthèse soustractive, le bruit blanc cauchemardesque en bruit blanc agréable. Par exemple filtrer le bruit d’un avion au décollage pour ne garder que les harmoniques clapotis des vagues ou bruit du torrent. Masquer le bruit de fond de son cerveau par un autre bruit de fond, seule thérapie connue contre les acouphènes ». Pour opérer cette synthèse, il utilisera le grand œuvre du feu électrique pixel, lumière.

[ Images de faux feux de cheminées en plastique ultra kitch + images vidéo agitées dans le style des effets pop années 80 bougeant dans tous les sens. Images générées par Vizzie (le système vidéo très souple et amusant embarqué sur MaxMSP)+ des .gif animés dans un style visible sur http://free.bifteck.free.fr/live/bruit-blanc.html Les .gif animés sont une sorte d’Arte Povera de l’ère électro. Un clignotement de .gif animés symbolisera le dérèglement des sens (subversif dans le dance floor, négatif dans la maladie). Le retour cyclique du pixel d’éclat de lumière colorée et son absence créera un rythme caoutchouteux de jour et de nuit accéléré. Une ville entière clignote sur un écran, néon de poche. ]

Toute ressemblance avec Ocean of sounds, le titre de l’excellent livre de David Toop ou des productions New Age de relaxation seront fortuites tout comme une lointaine similitude avec The Crossing de Bill Viola. Les emprunts à la Bible seront purement formels. Suivant les moyens offerts, je réaliserai cette partie graphique (avec l’aide de Lari Lucien, un ami graphiste pour les fractales : http://lariphotos.free.fr)

@couPhonium
Nouvelle recherche mars 2011

Je me suis mis à étudier depuis peu MaxMSP. Je viens de construire un @couPhonium : un instrument virtuel pour jouer une palette complète d’acouphènes et de parasites sonores générés par le cerveau. Des bruits plus ou moins esthétisés. L’@couPhonium est un générateur de sons proches de l’acouphène, en tout cas proche de MES acouphènes. Sonorités souvent intéressantes, similaire à la musique « noise », déchirement informatique, bruits industriels des machines, grondement des transports ou esthétique futuriste de bourdonnement, chuintement, gargouillement, sifflements. L’@couPhonium exprime l’ambivalence sonore de la douleur et du plaisir du bruit dans une perspective délirante « rétro-maso » saisi dans sa subjectivité contradictoire et psychédélique. L’acouphène se transforme dans la tête en miroir sonore du monde actuel scotché au cerveau, dont l’interrupteur stop a disparu irrémédiablement de notre connaissance.

L’@couPhonium est aussi un générateur de mots relatant les maux du corps et de l’esprit perturbé par les acouphènes et l’hyperacousie. Un générateur d’histoire on ne peut plus traditionnel du point de vue technologique : le monde du silence, un crayon et un papier. Un générateur de mots orientés vers une évaluation des courants musicaux des dernières décennies : punk, industriel, free, bruitiste, techno, noise, électro, etc. Tentative d’explorer les dérapages sonores de la jouissance du bruit comme désir du mal d’aller en enfer. Idée de guérir par le rythme et le filtrage du timbre des sons. Guérir l’oreille par les bienfaits de l’harmolodie (mélodie/rythme/couleur, style d’improvisation jazz/funk/free conceptualisé par Ornette Coleman) pour atteindre le cœur du groove nucléaire. Ne pas tomber dans les pièges d’une pensée binaire et garder un peu d’humour.

Le pitch d’Acouphènes Parade (Courant 2010)

Un musicien en train de devenir sourd entend des voix : le bruit du non-amour, le bruit des acouphènes. Il réagit de manière dynamique et positive : transformer cet insupportable bruit parasite du cerveau en vagues océanes, cascades et feux de l’amour grâce au combustible de la musique.

Le court roman “Acouphènes Parade” raconte la perte de l’oreille gauche de l’instrumentiste. Le texte explicite le doute du musicien puni par on ne sait quel Dieu pour avoir joué des fausses notes. Il se termine par l’amélioration de l’oreille droite tandis que son oreille gauche se dégrade inéluctablement. Le porno “Trash” se transforme en Fiction “Fun”.

La musique subit deux mouvements contradictoire, parallèle aux performances des oreilles du récitant : “bad” et “good”. Une musique dramatique et douloureuse dans l’oreille gauche (une solution très pratique et efficace de bruit blanc numérique passé à travers des Moog analogiques), dans l’oreille droite, une musique joyeuse et rythmique inspirée de l’Afrique.

L’orchestre (idéal) devra se composer d’un batteur, d’un percussionniste, d’un ou deux guitaristes, d’un bassiste, d’un clavier, d’un opérateur sur ordinateur (CataRT et Live 8 gérant aussi les Moog), d’un ou d’une récitant(e), de moi-même au saxophone alto, clarinette basse et voix, et dans le cas d’une production maximum, d’une danseuse/chanteuse pour créer des interludes très sexe correspondant à quelques chapitres chauds du livre. Ces séquences peuvent aussi disparaître pour ne pas éparpiller l’attention. Il va de soi que suivant les possibilités économiques de la production l’orchestre peut se réduire à deux ou trois poly-instrumentistes. Par contre quelle que soit la formule retenue une étroite collaboration avec un ingénieur du son sera nécessaire (gérer une simulation droite, gauche, centre, spatialisation fragmentée et aventureuse, simulation des oreilles du narrateur). La mise en scène se concevra surtout comme une mise en ondes sonores.

Dossier complété le 15 décembre 2011
Etienne Brunet
free.bifteck@free.fr

Comment et pourquoi j'ai réalisé " Tinnitus Mojo"