Table des matières
- 1 La corpauralité dans l’expérience musicale sourde
- 2 Problématiques des technologies de diffusion haptiques comme dispositifs d’accessibilité
- 3 La perception vibrotactile et son exploitation dans la conception d’interfaces musicales
- 4 Le VibSTraM : vers un codage trajectoriel de stimuli vibrotactiles
- 5 Notice biographique
La « corpauralité » comme point de départ d’un nouveau système musical : la piste du Vibrotactile Space Trajectory Model (VibSTraM)
La corpauralité dans l’expérience musicale sourde
La relation entre la musique et les sourds forme aujourd’hui un champ de recherche émergent en musicologie. L’étude de « l’expérience musicale sourde » (BRÉTÉCHÉ : 2015) et l’exploration des pratiques qui en émanent offrent de multiples possibilités de mutation à nos conceptions courantes de la musique. En dépassant les représentations doxiques qui postulent l’impossibilité de concevoir une expérience musicale dans laquelle « l’oreille n’a pas forcément de rôle à jouer » (SCHMITT : 2012a, p. 221), les pratiques musicales sourdes renversent le primat de l’auralité au profit d’une conception de la musique fondamentalement « corpaurale » (BRÉTÉCHÉ : 2015). La corpauralité, néologisme construit autour de la conjonction des termes « auralité » et « corporéité », désigne « l’implication du corps dans la réception des éléments sonores et des événements musicaux » (BRÉTÉCHÉ : 2019). Une réception notamment mise en œuvre par la stimulation vibrotactile, prenant ici la musique pour origine, des mécanorécepteurs responsables de notre sensibilité aux vibrations. Questionnée dans ses traits ontologiques, la musique peut, dès lors, être comprise comme une activité qui ne s’actualise pas nécessairement via une écoute et un mode de perception prioritairement auditifs, mais bel et bien par l’intermédiaire d’autres sens.
Or, si la corpauralité se révèle être un principe fondamental de l’expérience musicale sourde, certaines pratiques, articulées autour de formes d’expression inhérentes aux milieux artistiques sourds, font de la vue une modalité de réception privilégiée dans leur appréhension. Cette fonctionnalisation particulière résulte d’une volonté militante qui vise à valoriser – par une lecture essentialiste et différentialiste du projet de revendication et de reconnaissance sociale et linguistique caractérisant la période du Réveil sourd (KERBOURC’H : 2012) – des spécificités objectivées de fait comme « critères définitoires » (SCHMITT : 2012b) de l’altérité et de l’identité sourdes (GAUCHER : 2010). En l’occurrence, ces spécificités concernent notamment l’utilisation des langues des signes et la définition du visuel comme mode de perception privilégiée du monde (DELAPORTE : 2002). Des items qui semblent définir l’esthétique de certaines productions musicales ancrées autour de la pratique du chansigne (BRÉTÉCHÉ : 2019). Néanmoins, si ces productions sont autant d’exemples qui illustrent à l’heure actuelle le renversement des normes audiocentriques (BEST : 2018), elles sous-tendent parfois une conception oculocentrique qui, bien que cherchant à s’opposer à la précédente, conserve un même caractère réductionniste. Il en résulte, de fait, le risque de générer des obstacles dans l’accès et la participation à la musique des individus porteurs d’une condition physiologique en discordance avec les normes établies dans ces différentes conceptions.
Ainsi, en considérant la perspective offerte par l’expérience musicale sourde et les enjeux sociaux, esthétiques, voire idéologiques, véhiculés par certaines pratiques qui en émanent, nous soulevons la possibilité de concevoir (ou de reconcevoir) des environnements musicaux détachés de toute injonction audiocentrique. En d’autres termes, l’ensemble des médiums, organes techniques ou autres technologies permettant de concrétiser nos expériences de la musique pourraient ainsi être pensés ab initio selon des normes physiologiques, ergonomiques ou encore esthétiques qui n’imposeraient pas à l’utilisateur de prédisposer d’un système auditif défini biologiquement comme pleinement fonctionnel au regard de critères audiométriques. Faire de l’exploitation des capacités sensibles du corps une constituante principale, et non plus subsidiaire, dans l’expérience de la musique pourrait ainsi ouvrir la voie vers un nouveau champ des possibles et un nouvel horizon paradigmatique qui, tout en valorisant le principe de corpauralité, se détacherait des logiques sociales, excluantes ou différentialistes, véhiculées par les conceptions audiocentrique et oculocentrique. Cet article propose ainsi d’étudier les potentialités offertes par un tel changement de paradigme en musique, notamment en présentant des éléments de piste pour la conception d’un nouveau système musical.
Problématiques des technologies de diffusion haptiques comme dispositifs d’accessibilité
Depuis quelques années, l’intérêt des établissements de circulation de la musique pour les technologies de diffusion haptiques et leur utilisation dans le cadre du déploiement de leur offre culturelle semble connaître un véritable essor (HÉNAULT-TESSIER, CHRISTOPHE, NEGREL : 2018). L’une des explications les plus courantes d’un tel engouement renvoie au champ du handicap et, plus particulièrement, aux dispositions juridiques liées à l’accessibilité des personnes en situation de handicap (PSH) au spectacle vivant. La loi du 11 février 2005 « Pour l’égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées » a notamment fait de l’accessibilité un principe fondamental, bien que celui-ci n’y soit pas défini formellement. D’un point de vue juridique, les établissements recevant du public (ERP) ont ainsi pour obligation la mise en œuvre de dispositions adaptées afin de permettre un accès « à tout pour tous », n’induisant aucune « restriction de la participation » (DIPH : 2006). Dans le tandem musique-sourds, l’accès des sourds, perçus comme des PSH, au contenu musical doit alors être assuré par l’intermédiaire de dispositifs spécifiques, incluant les technologies de diffusion haptiques pour leur capacité à délivrer une écoute corpaurale de la musique. C’est ainsi que de plus en plus d’établissements proposent désormais à leurs usagers la possibilité d’évoluer sur des planchers vibrants ou d’emprunter des sacs à dos vibrants individuels pendant toute la durée d’un concert.
Or, bien que ces dispositifs démontrent certaines qualités facilitatrices en matière d’accès à la musique chez un tel public (DELALEU : 2021), ils révèlent de nombreuses limites. Tout d’abord, en répondant aux enjeux de l’accessibilité, ces technologies apparaissent comme des artefacts prothétiques et palliatifs qui se destinent à compenser les effets des déficiences auditives sur la concrétisation de l’expérience musicale. Toutefois, la nécessité de cette « substitution sensorielle » (KACZMAREK et al. : 1991) ne trouve un sens que parce que la conception initiale de cet environnement musical fait de l’audiocentrisme sa norme dominante. En ce sens, une analogie peut être faite avec la réhabilitation auditive qui vise, par l’appareillage audioprothétique et la rééducation orthophonique, à compenser, chez certains sourds, les pertes auditives liées à leur(s) surdité(s) dans l’objectif que ceux-ci puissent acquérir un niveau de langage oral suffisant pour permettre leur pleine participation et leur autonomie au sein de la société (LINA-GRANADE, TRUY : 2005). Ainsi, la surdité ne peut être comprise comme facteur biomédical de situation de handicap que lorsque l’individu sourd évolue dans un environnement qui fait de la parole et de l’audition des normes dominantes dans nos interactions sociales et nos situations de communication (SCHMITT : 2011). De la même manière, nos environnements musicaux peuvent générer des obstacles dans l’accès des sourds à la musique parce qu’ils induisent au préalable, en raison de la conception de leurs constituants, des prédispositions physiologiques qui ne sont pas universelles. En réponse à cette problématique, les recommandations ministérielles ont notamment introduit la notion de spectacle « naturellement accessible », visant à promouvoir en particulier le chansigne dans l’étendard culturel des ERP (MINOT : 2009).
L’utilisation faite des technologies haptiques en concert les cantonne le plus souvent à répondre au besoin d’adapter un environnement préexistant et jugé défavorable au regard des spécificités physiologiques d’un public de facto en situation de handicap. En revanche, cette fonctionnalisation reste le fruit d’une appropriation de ces technologies par les établissements eux-mêmes. À l’origine, les industriels qui les commercialisent visent moins à concevoir leurs produits pour répondre à un tel besoin qu’à les accessoiriser en vue d’une implantation plus globale dans des secteurs variés, tels que le cinéma ou le jeu vidéo. Le potentiel de ces technologies en musique apparaît donc moindre à l’heure actuelle, semblant se résumer, en exploitant un canal de stimulation sensorielle supplémentaire, à étoffer le caractère multimodal d’une expérience musicale dans le but de rendre cette dernière plus « immersive ». De ce fait, l’utilisation primaire de ces technologies reste la diffusion de répertoires musicaux audiocentrés au sein d’un environnement musical conçu, de prime abord, pour une écoute aurale. Les médiologues pourraient voir, dans cette situation, un exemple type d’articulation de divers effets médiologiques. Bien qu’il s’agisse ici davantage de technologies de diffusion, une analogie pourrait par exemple être faite avec l’utilisation des premiers synthétiseurs analogiques modulaires pour le jeu de répertoires musicaux plus anciens. Le risque est donc d’ignorer les potentialités offertes par ces technologies dans le développement d’une écoute corpaurale de la musique, indépendante de l’état de notre système auditif, et de nouveaux médiums somatocentrés.
Enfin, à cette problématique de fonctionnalisation des technologies haptiques en tant que dispositifs s’ajoute celle de la dimension stigmatisante provoquée par leur spécialisation. En cherchant à dédier ces technologies au public sourd, cette perspective peut conduire « à la mise en place de dispositifs dits spécifiques qui peuvent induire une mise en marge des publics en situation de handicap » (SOPHYS-VÉRET : 2015). En d’autres termes, le risque est ici de provoquer l’émergence de situations dans lesquelles ces technologies deviennent des marqueurs visibles de l’altération chez un individu, soulignant au passage – pour les personnes conformes aux normes dominantes – son écart supposé au regard de ces normes (WINANCE : 2004). Dans une perspective plus radicale, la spécialisation peut également aboutir au « prétexte d’assistance » (MILLS : 2010). L’accessibilité peut alors devenir un objectif apparent pour, en réalité, camoufler une volonté sous-jacente de satisfaire des enjeux divergents (par exemple : technologiques, économiques, juridiques ou encore politiques) (FRIEDNER, HELMREICH : 2012). Transposé dans le contexte des actions et réflexions menées autour des sourds, ce phénomène peut renvoyer au « hearing savior » (« sauveur entendant »). Ce terme, récemment apparu dans la communauté sourde, décrit une posture spécifique dans laquelle un individu (généralement « entendant ») cherche à améliorer les conditions de vie des sourds à l’aide d’une appréhension erronée des réalités et de normes qui diffèrent de celles partagées dans cette population. En globalisant une conception musicale audiocentrée au détriment des formes d’altérité existantes, l’utilisation des technologies haptiques (mais également du chansigne) pour permettre aux sourds d’accéder à « la » musique devient donc un geste qui pourrait s’inscrire dans cette voie.
Compte tenu des problématiques soulevées dans l’utilisation actuelle des technologies de diffusion haptiques au sein des lieux de circulation de la musique, nous suggérons que la création de nouveaux médiums musicaux fondés sur une réception corpaurale pourrait mener au développement d’un nouveau paradigme musical. En outre, l’un des enjeux de celui-ci serait de proposer des outils au service d’un environnement musical neutre, en détachant l’expérience de la musique de toute injonction liée à la condition physiologique de notre système auditif. Nous proposons ainsi une piste pour l’élaboration d’un nouveau système musical fondé sur l’exploitation de la corpauralité.
La perception vibrotactile et son exploitation dans la conception d’interfaces musicales
La corpauralité fait du corps un lieu de concrétisation de l’expérience musicale. Cette concrétisation est rendue possible grâce aux capacités sensibles du corps à réagir aux stimuli sensoriels de son environnement. Ces capacités se réfèrent à un ensemble de mécanismes physiologiques complexes qui régissent le système somatique sensoriel, appelé aussi « système somatosensoriel », « somesthésie » ou plus trivialement « sens du toucher ». Plusieurs types de récepteurs sensoriels répartis sur et dans l’ensemble de notre corps nous délivrent simultanément des informations, ou afférences, via notre système nerveux périphérique, nous permettant ainsi de percevoir et de ressentir des sensations de nature multiple, telles que la douleur (nociception), la température d’un corps ou du milieu dans lequel nous évoluons (thermoception) ou les stimuli haptiques (mécanoception). En l’occurrence, les stimuli haptiques désignent à la fois les stimuli tactiles, ou « cutanés », et kinesthésiques (LEDERMAN, KLATZKY : 2009).
Parmi les différents stimuli tactiles existants, les stimuli vibrotactiles sont détectés par l’action d’un ensemble de plusieurs mécanorécepteurs (corpuscules de Pacini, de Meissner, de Ruffini, disques et cellules de Merkel, ainsi que les terminaisons nerveuses des poils sur la peau pileuse), chargés de transmettre des informations au système nerveux central (VALLBO, JOHANSSON : 1984). Chacun de ces mécanorécepteurs possède ses propres caractéristiques et délivre donc des afférences différentes qui peuvent être isolées et caractérisées. Il existe ainsi plusieurs modèles neurophysiologiques pour décrire ces différents mécanismes (BIRNBAUM, WANDERLEY : 2007). De plus, contrairement aux systèmes auditif et visuel, ces mécanorécepteurs ne sont pas localisés sur des organes spécifiques, mais répartis sur l’ensemble de notre corps, depuis la surface de notre peau jusque dans nos organes, notre squelette, nos tissus, nos muscles ou encore nos viscères (GOLDSTEIN : 2002). Leur répartition et leur concentration ne sont pas homogènes sur l’ensemble du corps et peuvent grandement varier d’une partie à l’autre (LEDERMAN, KLATZKY : 2009). De ce fait, notre perception des vibrations dépend non seulement d’une interaction complexe couplant différentes informations nerveuses à des paramètres psychophysiques multiples, mais celle-ci varie également en fonction des zones du corps que l’on cherche à stimuler. Cependant, l’étendue de cette complexité, ainsi que les points de divergence importants avec les mécanismes auditifs, semble offrir un large champ des possibles à exploiter dans la conception d’un système musical visant une organisation spatio-temporelle des stimuli vibrotactiles.
En considérant ces possibilités, de nombreux travaux se sont penchés, dans des disciplines variées, sur l’étude de la transmission d’informations musicales à travers des dispositifs vibrotactiles. L’ensemble de ces études forme aujourd’hui un vaste champ de recherche intégrant le domaine général des interactions haptiques homme-machine (REMACHE-VINUEZA et al. : 2021). Le spectre d’applications va de la conception de technologies de retour (« feed-back ») haptiques, destinées aux interfaces de jeu ou d’écoute musicale, au développement de dispositifs de substitution sensorielle pour compenser les effets d’altérations physiologiques éventuelles. De ce fait, de nombreuses études ont cherché à identifier des spécificités auprès de populations sourdes (GOOD, REED, RUSSO : 2014) ou à développer des systèmes expérimentaux afin d’enrichir leur expérience de la musique (PETRY, ILLANDARA, NANAYAKKARA : 2016). La très large majorité de ces travaux se concentre sur l’élaboration de différentes stratégies visant à extraire des caractéristiques ou des paramètres musicaux afin de les transposer, selon une grande variété de mapping, dans la modalité vibrotactile. Or, à l’instar de l’utilisation des technologies haptiques dans le domaine du spectacle vivant, ces transpositions s’effectuent, pour la plupart, à partir d’un processus de traitement du signal d’une source audio qui, bien souvent, se fonde sur des médiums tels que l’emploi de notes de la gamme tempérée occidentale (BRANJE et al. : 2010) ou sur un répertoire musical audiocentré (KARAM, RUSSO, FELS : 2009).
Cependant, parmi l’ensemble des perspectives engagées dans ces travaux, l’une d’entre elles consiste à développer des stratégies de composition pour constituer une « musique vibrotactile » (REMACHE-VINUEZA et al. : 2021). Eric Gunther et son équipe furent parmi les premiers chercheurs à explorer la possibilité de développer un système musical fondé sur la corpauralité (GUNTHER, DAVENPORT, O’MODHRAIN : 2002). Les auteurs ont fourni plusieurs pistes intéressantes, notamment en discutant de la pertinence des principaux paramètres musicaux dans la modalité vibrotactile. Ainsi, la grande divergence de fonctionnement des mécanismes du système somatosensoriel dans la perception vibrotactile et de ceux du système auditif dans la perception aurale de la musique induit une réorganisation hiérarchique de ces paramètres. Par exemple, les limites du champ de perception des stimuli vibrotactiles par l’ensemble du corps étant comprises entre 0,3 Hz (KRUGER : 1996) et 1 000 Hz (VERRILLO : 1992), avec un pic de sensibilité aux alentours de 250 Hz, le paramètre de fréquence (ou de hauteur) n’apparaît plus comme un paramètre de première importance en comparaison avec la plupart des systèmes de composition de la musique aurale. A contrario, au regard de la surface utile procurée par l’ensemble de notre peau, l’espace, paramètre longtemps ignoré dans l’histoire de la musique occidentale, semble ici offrir des possibilités intéressantes pour l’élaboration d’un système musical corpaural. Toutefois, peu de travaux se sont inscrits dans cette direction depuis lors, au profit de celles citées précédemment.
Les rares études qui ont exploré cette voie tendent aujourd’hui à former un consensus autour de la manière d’exploiter le paramètre spatial dans la modalité vibrotactile. En l’occurrence, la plupart des auteurs soutiennent que la création d’illusions tactiles spatio-temporelles sur la peau représente un intérêt majeur dans la composition de la musique vibrotactile (REMACHE-VINUEZA et al. : 2021). Par exemple, dans cette étude (GIORDANO, SULLIVAN, WANDERLEY : 2018), les auteurs ont défini plusieurs séries d’« icônes tactiles », ou « tactons » (BREWSTER, BROWN : 2004), qui schématisent, à travers une configuration de répartition hexagonale de chacun des transducteurs haptiques, les séquences temporelles qui régissent l’ordre d’activation et de délivrance des stimuli vibrotactiles. Similaire aux illusions d’optique provoquées par la persistance rétinienne ou l’« effet phi » dans le système visuel, il résulte de ces séquences des illusions de mouvement tactiles (ou « mouvements fantômes »), ressenties chez l’utilisateur.
Nous soutenons que cet exemple d’organisation spatio-temporelle de stimuli vibrotactiles, qui exploite le paramètre spatial et la sensibilité de notre corps aux vibrations, pourrait représenter une base élémentaire pertinente pour la constitution d’un nouveau système musical et d’un paradigme vibrotactile pour la musique. Nous suggérons également qu’une telle organisation pourrait être intéressante dans l’étude des effets produits par la diffusion de ces séquences sur des participants. Ce type d’approche pourrait permettre, par exemple, de développer un système en fonction de la potentialité propre de ces icônes à induire ou non des éléments émotionnels, et de mettre en lumière des saillances potentielles. En convoquant des participants sourds et non sourds (malentendants, entendants, etc.), cela pourrait également permettre à terme de proposer à des artistes un système de composition mixte, dont l’expérience ne sous-tendrait aucune logique discriminatoire ou stigmatisante. Sur la base de ces travaux, nous proposons ainsi notre propre modèle d’organisation spatio-temporelle de stimuli vibrotactiles : le Vibrotactile Space Trajectory Model (VibSTraM).
Le VibSTraM : vers un codage trajectoriel de stimuli vibrotactiles
Le VibSTraM est un modèle compositionnel proposant une organisation spatio-temporelle de stimuli vibrotactiles. À l’instar des icônes tactiles précédemment évoquées, ce modèle requiert l’articulation de plusieurs transducteurs vibrotactiles pour générer une sensation illusoire de mouvement chez une personne. La différence majeure avec les modèles antécédents réside dans la réorganisation des paramètres de ce système, notamment en ce qui concerne celui de l’espace. Selon nous, plusieurs paramètres supplémentaires doivent être considérés lorsqu’il s’agit du traitement spatial d’un signal vibrotactile. En l’occurrence, les techniques de spatialisation de la musique acousmatique, largement développées depuis les acousmoniums du siècle précédent, permettent aujourd’hui de réaliser, à l’aide d’outils numériques modernes, des automations d’effets qui nécessitaient autrefois une performance complexe dans le mixage multicanal des différentes pistes d’entrée et de sortie. De ce fait, en remplaçant les haut-parleurs par des transducteurs vibrotactiles (appliqués par exemple sur la peau), nous suggérons que la transposition de ces techniques dans le domaine vibrotactile représenterait une solution intéressante…
En lieu et place de la notion de mouvement, la spatialisation de stimuli vibrotactiles pourrait ainsi être caractérisée par la trajectoire dessinée par un stimulus (lui-même modulé par des paramètres propres aux outils de production du signal, tels que l’amplitude, la fréquence ou encore la forme d’onde) dans un espace plan virtuel (multicanal) en deux dimensions (x, y). Certains outils numériques, tels que GRM Tools Spaces, permettent de réaliser aisément cette opération. Une trajectoire consisterait alors en la combinaison de plusieurs sous-paramètres intrinsèques : la direction du mouvement ; le sens de ce mouvement ; la vitesse de ce mouvement (relative à sa durée dans le temps, se rapprochant ainsi de la notion de rythme). Des trajectoires types (fixes, circulaires, rectilignes ou encore curvilignes) pourraient être produites et séquencées dans le temps de manière musicale. Dans la figure 1, nous illustrons un exemple d’intégration de ce principe dans un dispositif vibrotactile multicanal dorsal. À l’instar de la configuration choisie par Giordano et son équipe, nous suggérons que la modularité dans la répartition des transducteurs ou encore leur nombre pourraient également apporter des possibilités supplémentaires. À l’avenir, nous espérons pouvoir expérimenter ce type de système musical dans une étude visant à déterminer ses capacités à induire des émotions, notamment chez des participants sourds et non sourds.
Notice biographique
Alban Briceno est doctorant en musicologie à l’université de Lille. Dirigés par Christian Hauer (CEAC, ULR 3587) et coencadrés par Laurent Sparrow (SCALab, UMR 9193), ses travaux de thèse reposent sur le codage spatio-temporel de stimuli vibrotactiles en vue d’élaborer un nouveau système musical pouvant induire des émotions chez des individus sourds et non sourds (malentendants, entendants, etc.). Plus globalement, ses recherches portent sur l’étude des pratiques musicales sourdes selon une approche interscientifique et interdisciplinaire. Depuis 2019, il enseigne également en tant que chargé de cours auprès de plusieurs promotions (licence et master) du département de musicologie.