Patrick Saint-Denis, Lungta



Lungta from Patrick Saint-Denis on Vimeo.


L'œuvre tourne autour d'une matrice physique de 192 moteurs/ventilateurs actionnant une série de feuille de papier disposées de manière à former une grille bidimensionnelle. Agissant à titre d'écran ou plutôt de synthétiseur vidéo, la matrice dévoile un ensemble riche et complexe d'interactions entre le son, la capture vidéographique et la gestuelle performative. La tension électrique des moteurs peut être contrôlée de manière individuelle, de sorte que le positionnement de chaque feuille de papier puisse constituer en réalité un pixel d'une image rendue à très basse résolution.

Sur un autre plan, l'œuvre puise son matériau à même trois matières qui sont a priori extérieures au sonore soit le papier, le vent et le temps. La musique, issue d'ateliers d'improvisation, cherche à mettre en valeur les propriétés sonores de ces matériaux en privilégiant les environnements bruités, où les hauteurs sont négligeables. Finalement, la pièce témoigne aussi d'un appétit pour les environnements sonores chargés, où l'attention de l'auditeur est fortement sollicitée.


The work dwells around a physical matrix of 192 motor-driven fans activating sheets of common stationary paper along a two-dimensional grid. Acting as a sort of pixel-based video image synthesizer or display, the matrix permits the specification of a rich and complex interaction between sound, video capture and performative gestures. The voltage of each individual motor can be controlled separately, allowing the horizontal position of each sheet of paper, thus the representation of any sort of “crude” images.

On another level, the work draws its material from three sources a priori exterior to the world of sound: paper, wind and time. The music, coming from improvisation workshops, seeks to celebrate the sonic properties of these materials by being oriented towards noisy environments, where pitches are irrelevant. Finally, the work inherits from a strong appetite for overloaded sonic environments, where the auditor's attention is strongly sought.

Cette oeuvre a bénéficié du soutien du Conseil des arts et des lettres du Québec / This work received support from Conseil des arts et des lettres du Québec

CALQTV




À propos de Lungta

Avec Lungta (2012), j’ai poursuivit la recherche sur les manipulations d’objets physiques initiée avec Trombe par la conception d’un dispositif audio-réactif à grande échelle. Une matrice physique de 192 petits moteurs électriques avoisinant les 24 pieds en largeur interagit en direct avec 4 musiciens. Chaque moteur est muni d’une hélice permettant d’envoyer un jet d’air réglant individuellement l’élévation verticale de feuilles de papier suspendues devant eux. La matrice réagit en direct au son, à un système de captation par caméra et à un système faisant usage de la Kinect [1] de Mircosoft. Chaque feuille de pa- pier est en réalité une sorte de pixel physique permettant d’afficher des images rendues à très basse résolution.

Lungta (2012), Patrick Saint-Denis. (c) 2012, Patrick Saint-Denis

Sur un autre plan, l’œuvre puise son matériau à même trois composantes qui sont a priori extérieures au sonore soit le papier, le vent et le temps. La musique, issue d’ateliers d’improvisation avec le dispositif, cherche à mettre en valeur les propriétés sonores de ces matériaux en privilégiant les environnements bruités, où les hauteurs sont négligeables. La pièce témoigne aussi d’un appétit pour les environnements sonores chargés, où l’attention de l’auditeur est fortement sollicitée.

Partition invisible

Parallèlement à l’intérêt que je porte aux musiques algorithmiques, je suis devenu graduellement indifférent à l’écriture instrumentale de type harmonico-mélodique. La chose est paradoxale puisque les paramètres que sont les hauteurs et les durées sont précisément les quantités sur lesquelles la musique instrumentale algorithmique s’appuie habituellement. Déjà avec Trombe, les pages noires générées témoignent de préoccupations semblables. Celles-ci sont centrées sur la production en chaîne de courts mélismes très rapides ne laissant pas à l’écoute le temps de bien appréhender les hauteurs et les durées. En ressort une écriture du geste plus que de la note et cet intérêt pour l’effacement des paramètres fondamentaux se poursuit avec Lungta. Après une écriture de la page noire, c’est maintenant une écriture invisible qui se manifeste pour la première fois avec cette œuvre. Proche du domaine de l’improvisation, l’écriture est ramenée à la conception d’interventions clairement définis dans leur profil général et en s’adressant à l’inventivité des musiciens pour leur réalisation.

Du même souffle, le souci de nivellement des différents médias manifesté dans Trombe va être renouvelé ici pour chambarder complètement les hiérarchies traditionnelles. Les musiciens présents sur scène vont remplir un rôle secondaire et seront subordonnés à un discours audiovisuel d’abord alimenté par le dispositif. Autrement dit, la musique est au service du dispositif et le mouvement s’y manifestant est un prolongement du souffle des musiciens.

Les interventions des musiciens ont été conçues lors d’ateliers d’improvisations avec le dispositif. Les musiciens devaient orienter leur jeu en fonction des impératifs physiques inhérents à la machine. Par exemple, le mouvement des feuilles de papier s’effectuant avec une certaine inertie, un jeu instrumental trop rapide s’avère inadéquat. Le dispositif se trouve donc à endiguer l’improvisation en fonction des possibilités d’interaction, comme si la machine contenait sa propre « partition » interne.

J’ai ensuite communiqué aux musiciens certaines indications concernant leurs interventions. La première consiste en l’interdiction de produire des hauteurs fixes. Cette contrainte vise à arrimer le son des musiciens à celui bruité du dispositif. Une seconde indication concerne l’orientation des modes de jeu vers une famille de techniques proche des sons éoliens, ceci pour créer des liens entre l’air manifesté au niveau des feuilles de papier et le souffle des musiciens. Le choix de l’instrumentation, soit 2 flûtes, 1 voix de femme et un ordinateur, est conséquent avec cette seconde contrainte. La dernière indication concerne un découpage formel par blocs de deux minutes environ. Des indications de caractères et de densité sont aussi spécifiées. Finalement, j’agis aussi à titre d’intervenant hors scène en jouant du joystick-lungta, un instrument/interface développé spécifiquement pour l’œuvre.

Sons infrarouges

En marge des interactions avec le dispositif, les musiciens évoluent aussi dans un environnement audio interactif. Reprenant les principes d’une écriture noire articulée en deux étapes, des textures sonores ont d’abord été générées par un système infrarouge de granulation temps réel que j’ai développé avec la Kinect de Microsoft. Ces textures font ensuite l’objet d’une opération de montage en direct en fonction d’un procédé stochastique déclenché lors de détection d’attaques. Le système de granulation temps réel nommé kinki (Kinect Kreative Interface) est une application openFrameworks basée sur une implémentation des librairies OpenNI, NITE et SensorKinect. L’application consiste en une interface graphique facilitant la conception d’un espace interactif tridimensionnel. L’interface permet de définir différentes zones d’interaction ainsi que leur mise en relation avec différentes parties du corps. En utilisant le protocole Open Sound Control (OSC), cette application permet de relier une gestuelle performative à un environnement de création sonore ou visuelle.

La kinect de Microsoft

La kinect, un périphérique pour la console de jeu XBOX 360 de Microsoft, a été lancée commercialement en 2010. Le principe du périphérique consiste à permettre aux utilisateurs de jouer à des jeux vidéo sans manette via un système de reconnaissance de commandes vocales et de reconnaissance du mouvement. Positionné idéalement à un mètre environ en face de l’utilisateur, le périphérique comprend un projecteur et une caméra infrarouge, ainsi qu’une caméra standard. L’ensemble est installé sur un socle motorisé permettant de faire pivoter les capteurs optiques et le projecteur infrarouge afin d’adapter le champ de vision du périphérique en fonction du positionnement des utilisateurs. L’accessoire a connu un succès commercial immédiat avec plus de huit millions d’unités vendues en un peu moins de deux mois après sa sortie. L’intérêt qui lui est porté aujourd’hui dépasse largement l’industrie vidéoludique.

Les capteurs optiques possèdent un champ de vision de 57 degrés à l’horizontal et 43 degrés à la verticale. La caméra standard (RGB) possède une résolution VGA (640x480 pixels) en 8-bit par canal de couleur. La caméra infrarouge possède les mêmes caractéristiques en matière de résolution avec toutefois une étendue dynamique plus large, soit de 11-bit, permettant ainsi 2048 niveaux de luminosité pour la captation de la profondeur. L’utilisation de la kinect nécessite un espace minimum d’environ 6 m2 et sa sensibilité à la profondeur est limitée entre 1.2-3.5 m. Toutefois, la limitation de la profondeur ne concerne qu’un type d’analyse car le système de captation est capable de recueillir des données jusqu’à une profondeur de 6 mètres.

Kinect, périphérique pour la console de jeu XBOX 360 de Microsoft. (c) Creative Commons

Le système de reconnaissance de mouvement de la kinect, développé par la firme israélienne PrimeSense, est basé sur un système d’imagerie en profondeur. L’imagerie en profondeur fait référence à un ensemble de technique servant à représenter la profondeur sur une image 2D en teintant les pixels d’une image en fonction d’un code de couleurs ou de luminance. Les données correspondant à la mesure de la profondeur peuvent pro- venir d’une panoplie de techniques de télédétection, depuis la télédétection par laser (LADAR) utilisée en géomagnétique ou en sismologie jusqu’à l’imagerie par résonance magnétique (IRM) utilisée en médecine.

La kinect utilise quant à elle une technique de télédétection par lumière structurée. Dans un premier temps, le projecteur infrarouge projette une série de motifs lumineux invisibles pour l’œil nu. Ces motifs sont ensuite captés par la caméra infrarouge et cette captation est analysée, de sorte qu’une série d’informations puissent être déduites de cette analyse, tels que la profondeur des pixels ou encore la reconnaissance d’une silhouette humaine.

Motifs lumineux infrarouges projetés par la kinect (à gauche) et imagerie en profondeur (depth image) issue de l’analyse par lumière structurée. (c) Creative Commons.

Les figures ci-dessus illustrent la correspondance entre les motifs lumineux projetés et le résultat par imagerie en profondeur où la teinte représente la profondeur. Le blanc est ici affecté aux objets les plus proches tandis que la teinte des objets situés au plus loin s’échelonne jusqu’au bleu.

OpenNI

L’intérêt suscité par la Kinect a rapidement dépassé les frontières du jeu vidéo, si bien que la demande par rapport aux composantes logicielles permettant de démocratiser l’usage du périphérique est devenue très importante. En 2011, Microsoft a rendu public une trousse de développement logiciel (SDK) pour usage non commerciale. Mais des pilotes d’utilisation libres étaient déjà en circulation bien avant ce lancement. En 2010, PrimeSense avait déjà partagé gratuitement ses pilotes. Quelques mois plus tard, cette firme annonçait le lancement d’OpenNI, un regroupement à but non lucratif d’acteurs de l’industrie favorisant la promotion et le développement des interfaces naturelles (NI). À ce jour, OpenNI produit la trousse de développement de télédétection tridimensionnelle la plus importante et la communauté entourant ses ressources est des plus dynamiques.

OpenNI offre un SDK permettant de développer des intergiciels (middleware) lesquels permettent de développer éventuellement des applications. PrimeSense a aussi rendu public Nite, un intergiciel de vision par ordinateur (computer vision) offrant une interface de programmation (API) facilitant la conception d’applications utilisant la Kinect.

Architecture de composantes logicielles rattachées à OpenNI. (c) Creative Commons.

La figure ci-dessus illustre la manière dont les différentes composantes logicielles (OpenNI, Nite, SensorKinect, etc.) sont organisées. La première étape (depth physical acquisition) est située au niveau du capteur, la Kinect en l’occurrence. Les deux modules suivants (PrimeSense, SoC et OpenNI) servent à opérer le capteur et à recueillir des données tandis que la couche subséquente (NITE) analyse ces données et donne accès, entre autres, à l’analyse de scène (séparation entre arrière-plan et utilisateurs) et finalement la reconnaissance du squelette des utilisateurs en 13 articulations différentes.

kinki (Kinect Kreative Interface). (c) 2013, Patrick Saint-Denis.

kinki (Kinect Kreative Interface)

Kinki est une application openFrameworks qui consiste en une interface graphique permettant de concevoir un espace interactif tridimensionnel. L’interface permet de définir différentes zones d’interaction ainsi que leur mise en relation avec différentes parties du corps. De par l’utilisation de la Kinect de Microsoft et du protocole OSC, l’application permet de relier une gestuelle performative à un environnement de création sonore ou visuelle.

Le projet kinki est construit sur l’architecture logicielle d’OpenNI et comprend deux modes de fonctionnement soit le mode d’édition (edit mode) et le mode de performance. Le mode d’édition permet d’ajouter ou de modifier des objets au moyen de contrôles disponibles au côté gauche de l’interface. Les objets consistent en des zones d’interaction qui peuvent être fixes ou rattachées à un utilisateur. Les objets sont regroupés sous la forme de scènes, de manière à pouvoir changer rapidement les configurations d’objets. Les boutons situés au coin supérieur gauche permettent de gérer les scènes (add/delete/insert) et les objets (add/delete). Ces boutons permettent aussi de naviguer entre les objets spécifiques à chaque scène.

Boutons de navigation /gestion des objets et des scènes. (c) 2013, Patrick Saint-Denis.

Par défaut, l’application est calibrée pour un seul utilisateur mais il est possible d’augmenter ce nombre jusqu’à 8 utilisateurs simultanés. Les objets étant spécifiques à chaque utilisateur, il est nécessaire de spécifier l’index de l’utilisateur (utilisateur1= 0, utilisateur2 = 1, etc.) à l’endroit indiqué userID, et ce pour chaque objet.

Boîte de chiffre correspondant à l’index de l’utilisateur. (c) 2013, Patrick Saint-Denis.

Les contrôles subséquents permettent de moduler les objets (position, format, etc.). Le commutateur body related permet de spécifier si la zone d’interaction est fixe ou reliée à l’utilisateur. Lorsque reliée à l’utilisateur, la position de la zone d’interaction est centrée sur la tête de ce dernier tandis que les zones fixes sont centrées à l’origine située au coin inférieur gauche à l’avant. La boîte de chiffre body part trigger permet d’identifier quelle partie du corps de l’utilisateur activera la zone d’interaction. La partie du corps sélectionnée est indiquée en vert sur l’avatar de calibration.

Main gauche sélectionnée (index 0). (c) 2013, Patrick Saint-Denis.

L’identification numérique des parties du corps correspond à un index compris entre 0 et 12 tel que décrit au tableau ci-dessous.

Index des articulations.

Les boîtes de texte et de chiffre identifiées oscTag, osc in port et osc out port servent à configurer la communication OSC. Au bas de l’interface, le commutateur raw output permet d’envoyer par OSC les positions de toutes les partie du corps de chaque utilisateur. Le commutateur mvt amount permet d’envoyer, toujours par OSC, la quantité de mouvement globale et spécifique à chaque partie du corps de chaque utilisateur.

Mode à 4 vues. (c) 2013, Patrick Saint-Denis.

Le commutateur 4 views permet de basculer entre un mode à quatre vues différentes et un mode à vue unique afin de faciliter le repérage spatial. Finalement, les boutons save as et load permettent de sauvegarder et de charger les spécifications des scènes et des objets y étant associés sous la forme de fichiers au format XML.

Tous les messages OSC d’un projet sont envoyés sur un port unique selon la nomenclature suivante :

Si une boîte n’est pas activée [2] :

/oscTag 0

Si une boîte est activée :

/oscTag 1 xPosition yPosition zPosition rho phi teta distCenter

Les arguments correspondant à la position en x, y et z (xPosition, yPosition et zPosition) varient entre 0 et 1 tandis que les arguments associés aux coordonnées sphériques (rho, phi et teta) sont rapportés entre 0 et 360. Le dernier argument (distCenter) correspond à la distance par rapport au centre de la zone d’interaction et varie toujours entre 0 et 1.

La structure des autres messages sont :

-pour le raw output : [3]

/userID/partieducorps xPosition yPosition zPosition

-pour le mvt Amount :

/userID/mvtAmount/a l l mvt
/userID/mvtAmount/partieducorps mvt

Il est possible de naviguer entre le scènes sans passer par le mode d’édition en envoyant sur le incoming OSC port le message suivant : /sceneIndex index où la variable index correspond à l’index de la scène désirée.

Pages noires audio

Pour le rendu des sonorités électroniques de Lungta, deux zones interactives sont définies. Disposées de chaque côté de l’utilisateur, elles permettent d’envoyer par OSC un flux de données correspondant à la position des deux mains. Ces données alimentent un granulateur classique écrit en Supercollider en fonction du mapping suivant :

MAIN GAUCHE
Zpos −−> amplitude −−> entre 0 et 1
Ypos −−> densite (nb grains / sec ) −−> entre 0.3 et 15
MAIN DROITE
Xpos −−> longueur du grain −−> entre 0.01 et 0.5 sec
Ypos −−> vitesse de lecture ( rate ) −−> entre 0.1 et 2.

Les fichiers audio qui font l’objet de cette granulation proviennent d’enregistrements de flûte réalisés pendant les sessions de travail avec les musiciens et le dispositif. Les résultats de ces séquences-jeux réalisées avec kinki constituent les pages noires audio de Lungta. Sous la forme de fichiers sons, ils vont ensuite faire l’objet d’une opération soustractive par un montage en direct en fonction des interventions des musiciens. Ces sonorités dites infrarouges par analogie à l’interface utilisée, constituent le fruit d’un travail de recherche empruntant un sentier similaire à celui déjà exploré entre autres par David Rokeby avec Very Nervous System (1982-1991) ou encore Thierry de Mey avec Light Music (2004).[4]

Ces sonorités vont cohabiter avec d’autres en provenance du quatrième musicien. Je tenais à rejoindre les interprètes et participer aussi à titre d’improvisateur. J’ai utilisé un joystick générique me permettant de gérer la performance et les changements de scènes tout en rattachant au besoin certains aspects de l’interface à différents Synth écrits en Supercollider. Par exemple, les premières secondes de l’œuvre laissent entendre une série de sons de synthèse dans l’extrême grave. Ces sonorités sont déclenchées par le joystick-lungta contrôlant un Synth utilisant des ondes carrées. La hauteur est rattachée aux mouvements avant et arrière du manche tandis que la largeur d’impulsion de l’onde est associée aux mouvements latéraux. Le volume est contrôlé par un bouton situé à l’avant en haut du manche et par un potentiomètre situé à l’arrière.

Pixels physiques

Première formulation du dispositif. (c) 2013, Patrick Saint-Denis.

Toujours en ouverture, le joystick-lungta contrôle aussi une partie de l’activité du dispositif. Le deux cercles de côtés sont déclenchés par l’interface tandis que celui du centre est contrôlé par la flûte. Dans un premier temps, une série d’animations génératives sont déclenchées en fonction du jeu des musiciens. La plupart des animations sont construites à partir de formes géométriques primaires (cercle, rectangle, etc.) et se renouvellent à chaque détection d’attaque des musiciens. Elles comportent des éléments aléatoires de sorte qu’à chaque renouvellement, des changements s’opèrent tout en gardant des comportements d’ensemble constants. Ces animations, rendues à l’intérieur d’un FBO [5], sont acheminées à un module d’analyse d’image qui en calculera la luminosité générale en fonction d’un quadrillage correspondant à chaque feuille de papier ou « pixel » du dispositif. Le résultat de cette analyse peut être apprécié au coin inférieur droit de l’interface de contrôle et l’image résultante offre une pixelisation des animations en fonction de 16 niveaux de luminosité correspondant aux 16 positions d’élévation des feuilles de papiers.

Interface de contrôle de Lungta avec rendu visuel du module de transfert entre images et moteurs. (c) 2013, Patrick Saint-Denis.

Image identique avec emphase sur le module de transfert. (c) 2013, Patrick Saint-Denis.

En réalité, la résolution en terme de luminosité et de niveaux de voltage envoyés aux moteurs est de 8 bit soit 255 valeurs différentes. Cette définition n’étant pas perceptible visuellement, une définition plus grossière a été utilisée. De plus, l’envoi des valeurs correspondant au voltage est géré par un module qui reprend dans les grandes lignes le principe du codec vidéo H.264. Ce codec de compression vidéo permet de réduire grandement la taille de fichiers vidéo en supprimant l’information par rapport aux pixels qui demeurent identiques entre deux cadres successifs. Ce principe est repris pour Lungta et permet de limiter l’information circulant sur le port sériel avant d’être acheminée aux circuits imprimés Arduino. Ces circuits récupèrent l’information envoyée sur le port sériel (RS-232) et la traduisent en voltage à être acheminé aux moteurs.

Première formulation du circuit du dispositif. (c) 2013, Patrick Saint-Denis.

Circuit personnalisé du dispositif. 32 moteurs. (c) 2013, Patrick Saint- Denis.

Le diagramme suivant résume l’ensemble des composantes matérielles et logicielles de l’œuvre. Les différentes interfaces d’acquisitions de données sont dans des encadrés jaunes. Les modules de manipulations numériques (audio, images de synthèse) sont en blanc tandis que les dispositifs de sortie (le mur de papier, les haut-parleurs) sont dans des encadrés verts.


Analyse descriptive de la deuxième section

La section centrale de Lungta résume l’essentiel de mon travail de recherche des quatre dernières années. Au début, la chanteuse ne fait que souffler directement sur la membrane d’un microphone à large diaphragme. Un suiveur d’amplitude permet de dé- clencher par seuil d’amplitude de courtes séquences audio (4-8 secondes) générées par micro-montage. Le son du souffle fait aussi l’objet d’un traitement en direct. Dans un premier temps, une chaîne FFT [6] permet de séparer le signal bruité et celui plus périodique de la voix. Une modulation d’amplitude, dont les fréquences sont gérées de ma- nière aléatoire, est ensuite appliquée au signal périodique. Le tout est ensuite remélangé au signal bruité et retourné aux enceintes. La détection des passages où l’amplitude de la voix dépasse un seuil prédéfini déclenche aussi une série de mouvements sur le dispositif. Ces mouvements physiques correspondent à des animations initiées à partir du centre où 12 à 20 rectangles vont effectuer des translations latérales vers les deux côtés. La vitesse de déplacement, le nombre de rectangles et la direction sont définis de manière aléatoire de sorte que le mouvement se renouvelle continuellement tout en présentant des profils de masse identiques.

Animation. (c) 2013, Patrick Saint-Denis.

Résultat sur le dispositif. (c) 2013, Patrick Saint-Denis.

La chanteuse commence ensuite à effectuer une série de rotations avec la main droite. La Kinect déposée au sol au milieu de l’avant-scène permet de détecter la position tridimensionnel de sa main droite. Les données recueillies servent ensuite à alimenter un Synth composé de générateurs de bruits. L’amplitude du Synth est contrôlée par l’éloignement de la main par rapport au point central de la rotation lorsque celle-ci se situe dans la moitié avant du cercle. La spatialisation du son en stéréo est déterminé par la position de la main effectuant les rotations. Ces données génèrent aussi du mouvement au niveau du dispositif. Lorsque la main se situe dans la moitié arrière du cercle, une animation reprenant sa position permet de représenter sur le dispositif une sorte de vague initiée par la chanteuse. La figure suivante décrit les interactions spatiales audio et physiques.

Visualisation des interactions spatiales. Vue de haut. 1 = interaction audio, volume maximal et panning côté jardin. 2 = interaction audio, volume faible et panning côté cour. 3 et 4 = Volume audio à 0. Interaction avec le dispositif, l’animation suit la droite normale par rapport à la ligne du diamètre.

L’interprète chante continuellement de sorte que sa voix n’est amplifiée que lors du passage du microphone devant sa bouche. Cette intervention va durer un moment pour créer une accumulation et un resserrement des rotations. Vers la fin de l’accumulation, la voix devient moins soufflée et plus chantée. Une longue tenue dans le moyen aigu est entendue. Il s’agit de la seule hauteur fixe de l’œuvre. À la fois simple dans la réalisation et complexe au niveau des interactions, cette section correspond à un moment où les technologies s’effacent pour donner lieu à une atmosphère sensuelle et contemplative.

Esthétique de l’éphémère

La vraie générosité envers l’avenir consiste à tout donner au présent.

-Albert Camus

Lungta est nécessairement vouée à une existence éphémère. Les outils développés pour l’œuvre sont soumis aux impératifs reliés à l’informatique. À titre d’exemple, le logiciel kinki nécessite déjà au moment d’écrire ces lignes une mise à jour majeur. Microsoft vient tout juste de lancer la Kinect 2 qui n’est pas compatible avec les modules d’OpenNI sur lesquels l’application repose. Il se sera écouler à peine un an avant que l’obsolescence inhérente aux nouvelles technologies ne rattrape ce travail.

Des observations similaires peuvent être faites sur le dispositif. La manutention et l’utilisation de ce dernier nécessite un entretien avant chaque performance et ses dimensions causent plusieurs difficultés d’entreposage. Le dispositif reposant sur des outils informatiques, il ne fait aucun doute que des activités d’entretien devront être entrepris éventuellement. Le modèle de reprise des œuvres auquel les traditions associées aux musiques écrites nous ont habitué ne s’appliquent tout simplement pas avec Lungta. La performance nécessite la présence du compositeur tout comme celle des musiciens ayant contribué à sa création. Un manuel d’utilisation n’existe pas et, considérant la nature éphémère de ses composantes matérielles et logicielles, il ne peut pas en exister. Lungta ne répond pas seulement d’un art de l’éphémère, il s’agit d’un travail en transformation continu.

En terminant, les lungtas ou « chevaux de vent » sont des guirlandes de tissus rectangulaires et multicolores sur lesquels sont imprimés des mantras ou des prières. Suspendus aux passages de cols et sommets dans la région de l’Himalaya, au Tibet, au Népal, au Sikkim et au Bhoutan, le vent qui souffle caresse au passage les formules sacrées imprimées et les disperse dans l’espace, les transmettant ainsi aux dieux et à tous ceux qu’il touchera dans sa course.

Lungtas ou chevaux de vent photographiés dans la région du Ladakh en Inde. (c) Creative Commons.


[1] La Kinect est un périphérique destiné initialement à la console de jeux vidéo Xbox 360. Elle permet de contrôler des jeux vidéo sans utiliser de manette.
[2] i.e. si la partie du corps associée à l’objet est à l’extérieur de la zone d’interaction.
[3] Pour le raw output, noter que les positions sont exprimées en pixels (640x480x10000).
[4] Il faut noter par contre que ces deux œuvres ne font pas usage de la Kinect. Leur système de captation optique est une caméra standard. L’œuvre de Rokeby repose sur une analyse d’image développée par l’artiste tandis que l’œuvre de De Mey s’appuie sur l’utilisation de l’API OpenCV.
[5] Les FBO correspondent à des canevas virtuels où des images peuvent être rendues sans être nécessairement affichées.
[6] La transformée de Fourier rapide ou FFT est un algorithme de calcul utilisé entre autres pour la manipulation numérique du son.