La « corpauralité » comme point de départ d’un nouveau système musical

Prototype de dispositif d’écoute haptique portatif multicanal et modulaire (8 canaux) utilisé dans le cadre de notre thèse de doctorat. ©Alban Briceno
Prototype de dispositif d’écoute haptique portatif multicanal et modulaire (8 canaux) utilisé dans le cadre de notre thèse de doctorat. ©Alban Briceno

Résumé

L’étude de l’expérience musicale sourde a permis de mettre en lumière le rôle fondamental du corps dans la réception de la musique, définissant ainsi le principe de « corpauralité ». Renvoyant aux mécanismes complexes du système somatosensoriel, notamment liés à la perception vibrotactile des vibrations provoquées par la musique, la corpauralité se concrétise grâce aux capacités sensibles du corps à réagir aux stimuli sensoriels de son environnement. Toutefois, si la conception dominante de nos environnements musicaux fait de l’oreille un organe privilégié de l’expérience musicale, les pratiques musicales sourdes, bien que fondamentalement corpaurales, semblent davantage privilégier l’utilisation du sens de la vue. Il en résulte que l’utilisation actuelle des technologies de diffusion haptiques en musique, notamment dans les domaines du spectacle vivant et de l’accessibilité, est régie par une conception audiocentrée. Dans cet article, nous soulevons la possibilité de concevoir (ou de reconcevoir) des environnements musicaux détachés de toute injonction audiocentrique, orientés par l’exploitation de la corpauralité. Nous proposons la piste d’un nouveau modèle pour une organisation spatio-temporelle de stimuli vibrotactiles, le Vibrotactile Space Trajectory Model (VibSTraM), afin d’élaborer un nouveau système musical.

Mots-clés : corpauralité ; sourd ; musique ; vibrotactile ; accessibilité.

Summary

The study of the deaf musical experience has highlighted the fundamental role of the body in the reception of music, thus defining the principle of “corpaurality”. According to the complex mechanisms of the somatosensory system, in particular linked to the vibrotactile perception of the vibrations caused by the music, he corpaurality is taking form through the sensitive capacities of the body to react to the sensory stimuli of the environment. However, while the dominant conception of our musical environments still makes the ear a privileged organ of the musical experience, the deaf musical practices, although fundamentally corpaural, seem to privilege more the use of the sense of sight. As a result, the current use of haptic listening technologies in music, particularly in the fields of live performance and accessibility, is governed by an audiocentric conception. In this article, we raise the possibility of designing (or redesigning) musical environments detached from any audiocentric injunction, oriented by the exploitation of corpaurality. Thus, we propose a path of a new model for a spatiotemporal organization of the vibrotactile stimuli, the Vibrotactile Space Trajectory Model (VibSTraM), in order to craft a new musical system.

Keywords : corpaurality ; deaf ; music ; vibrotactile ; accessibility.

La « corpauralité » comme point de départ d’un nouveau système musical : la piste du Vibrotactile Space Trajectory Model (VibSTraM)

La corpauralité dans l’expérience musicale sourde

La relation entre la musique et les sourds forme aujourd’hui un champ de recherche émergent en musicologie. L’étude de « l’expérience musicale sourde » (BRÉTÉCHÉ : 2015) et l’exploration des pratiques qui en émanent offrent de multiples possibilités de mutation à nos conceptions courantes de la musique. En dépassant les représentations doxiques qui postulent l’impossibilité de concevoir une expérience musicale dans laquelle « l’oreille n’a pas forcément de rôle à jouer » (SCHMITT : 2012a, p. 221), les pratiques musicales sourdes renversent le primat de l’auralité au profit d’une conception de la musique fondamentalement « corpaurale » (BRÉTÉCHÉ : 2015). La corpauralité, néologisme construit autour de la conjonction des termes « auralité » et « corporéité », désigne « l’implication du corps dans la réception des éléments sonores et des événements musicaux » (BRÉTÉCHÉ : 2019). Une réception notamment mise en œuvre par la stimulation vibrotactile, prenant ici la musique pour origine, des mécanorécepteurs responsables de notre sensibilité aux vibrations. Questionnée dans ses traits ontologiques, la musique peut, dès lors, être comprise comme une activité qui ne s’actualise pas nécessairement via une écoute et un mode de perception prioritairement auditifs, mais bel et bien par l’intermédiaire d’autres sens.

Or, si la corpauralité se révèle être un principe fondamental de l’expérience musicale sourde, certaines pratiques, articulées autour de formes d’expression inhérentes aux milieux artistiques sourds, font de la vue une modalité de réception privilégiée dans leur appréhension. Cette fonctionnalisation particulière résulte d’une volonté militante qui vise à valoriser – par une lecture essentialiste et différentialiste du projet de revendication et de reconnaissance sociale et linguistique caractérisant la période du Réveil sourd (KERBOURC’H : 2012) – des spécificités objectivées de fait comme « critères définitoires » (SCHMITT : 2012b) de l’altérité et de l’identité sourdes (GAUCHER : 2010). En l’occurrence, ces spécificités concernent notamment l’utilisation des langues des signes et la définition du visuel comme mode de perception privilégiée du monde (DELAPORTE : 2002). Des items qui semblent définir l’esthétique de certaines productions musicales ancrées autour de la pratique du chansigne (BRÉTÉCHÉ : 2019). Néanmoins, si ces productions sont autant d’exemples qui illustrent à l’heure actuelle le renversement des normes audiocentriques (BEST : 2018), elles sous-tendent parfois une conception oculocentrique qui, bien que cherchant à s’opposer à la précédente, conserve un même caractère réductionniste. Il en résulte, de fait, le risque de générer des obstacles dans l’accès et la participation à la musique des individus porteurs d’une condition physiologique en discordance avec les normes établies dans ces différentes conceptions.

Ainsi, en considérant la perspective offerte par l’expérience musicale sourde et les enjeux sociaux, esthétiques, voire idéologiques, véhiculés par certaines pratiques qui en émanent, nous soulevons la possibilité de concevoir (ou de reconcevoir) des environnements musicaux détachés de toute injonction audiocentrique. En d’autres termes, l’ensemble des médiums, organes techniques ou autres technologies permettant de concrétiser nos expériences de la musique pourraient ainsi être pensés ab initio selon des normes physiologiques, ergonomiques ou encore esthétiques qui n’imposeraient pas à l’utilisateur de prédisposer d’un système auditif défini biologiquement comme pleinement fonctionnel au regard de critères audiométriques. Faire de l’exploitation des capacités sensibles du corps une constituante principale, et non plus subsidiaire, dans l’expérience de la musique pourrait ainsi ouvrir la voie vers un nouveau champ des possibles et un nouvel horizon paradigmatique qui, tout en valorisant le principe de corpauralité, se détacherait des logiques sociales, excluantes ou différentialistes, véhiculées par les conceptions audiocentrique et oculocentrique. Cet article propose ainsi d’étudier les potentialités offertes par un tel changement de paradigme en musique, notamment en présentant des éléments de piste pour la conception d’un nouveau système musical.

Problématiques des technologies de diffusion haptiques comme dispositifs d’accessibilité

Depuis quelques années, l’intérêt des établissements de circulation de la musique pour les technologies de diffusion haptiques et leur utilisation dans le cadre du déploiement de leur offre culturelle semble connaître un véritable essor (HÉNAULT-TESSIER, CHRISTOPHE, NEGREL : 2018). L’une des explications les plus courantes d’un tel engouement renvoie au champ du handicap et, plus particulièrement, aux dispositions juridiques liées à l’accessibilité des personnes en situation de handicap (PSH) au spectacle vivant. La loi du 11 février 2005 « Pour l’égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées » a notamment fait de l’accessibilité un principe fondamental, bien que celui-ci n’y soit pas défini formellement. D’un point de vue juridique, les établissements recevant du public (ERP) ont ainsi pour obligation la mise en œuvre de dispositions adaptées afin de permettre un accès « à tout pour tous », n’induisant aucune « restriction de la participation » (DIPH : 2006). Dans le tandem musique-sourds, l’accès des sourds, perçus comme des PSH, au contenu musical doit alors être assuré par l’intermédiaire de dispositifs spécifiques, incluant les technologies de diffusion haptiques pour leur capacité à délivrer une écoute corpaurale de la musique. C’est ainsi que de plus en plus d’établissements proposent désormais à leurs usagers la possibilité d’évoluer sur des planchers vibrants ou d’emprunter des sacs à dos vibrants individuels pendant toute la durée d’un concert.

Or, bien que ces dispositifs démontrent certaines qualités facilitatrices en matière d’accès à la musique chez un tel public (DELALEU : 2021), ils révèlent de nombreuses limites. Tout d’abord, en répondant aux enjeux de l’accessibilité, ces technologies apparaissent comme des artefacts prothétiques et palliatifs qui se destinent à compenser les effets des déficiences auditives sur la concrétisation de l’expérience musicale. Toutefois, la nécessité de cette « substitution sensorielle » (KACZMAREK et al. : 1991) ne trouve un sens que parce que la conception initiale de cet environnement musical fait de l’audiocentrisme sa norme dominante. En ce sens, une analogie peut être faite avec la réhabilitation auditive qui vise, par l’appareillage audioprothétique et la rééducation orthophonique, à compenser, chez certains sourds, les pertes auditives liées à leur(s) surdité(s) dans l’objectif que ceux-ci puissent acquérir un niveau de langage oral suffisant pour permettre leur pleine participation et leur autonomie au sein de la société (LINA-GRANADE, TRUY : 2005). Ainsi, la surdité ne peut être comprise comme facteur biomédical de situation de handicap que lorsque l’individu sourd évolue dans un environnement qui fait de la parole et de l’audition des normes dominantes dans nos interactions sociales et nos situations de communication (SCHMITT : 2011). De la même manière, nos environnements musicaux peuvent générer des obstacles dans l’accès des sourds à la musique parce qu’ils induisent au préalable, en raison de la conception de leurs constituants, des prédispositions physiologiques qui ne sont pas universelles. En réponse à cette problématique, les recommandations ministérielles ont notamment introduit la notion de spectacle « naturellement accessible », visant à promouvoir en particulier le chansigne dans l’étendard culturel des ERP (MINOT : 2009).

L’utilisation faite des technologies haptiques en concert les cantonne le plus souvent à répondre au besoin d’adapter un environnement préexistant et jugé défavorable au regard des spécificités physiologiques d’un public de facto en situation de handicap. En revanche, cette fonctionnalisation reste le fruit d’une appropriation de ces technologies par les établissements eux-mêmes. À l’origine, les industriels qui les commercialisent visent moins à concevoir leurs produits pour répondre à un tel besoin qu’à les accessoiriser en vue d’une implantation plus globale dans des secteurs variés, tels que le cinéma ou le jeu vidéo. Le potentiel de ces technologies en musique apparaît donc moindre à l’heure actuelle, semblant se résumer, en exploitant un canal de stimulation sensorielle supplémentaire, à étoffer le caractère multimodal d’une expérience musicale dans le but de rendre cette dernière plus « immersive ». De ce fait, l’utilisation primaire de ces technologies reste la diffusion de répertoires musicaux audiocentrés au sein d’un environnement musical conçu, de prime abord, pour une écoute aurale. Les médiologues pourraient voir, dans cette situation, un exemple type d’articulation de divers effets médiologiques. Bien qu’il s’agisse ici davantage de technologies de diffusion, une analogie pourrait par exemple être faite avec l’utilisation des premiers synthétiseurs analogiques modulaires pour le jeu de répertoires musicaux plus anciens. Le risque est donc d’ignorer les potentialités offertes par ces technologies dans le développement d’une écoute corpaurale de la musique, indépendante de l’état de notre système auditif, et de nouveaux médiums somatocentrés.

Enfin, à cette problématique de fonctionnalisation des technologies haptiques en tant que dispositifs s’ajoute celle de la dimension stigmatisante provoquée par leur spécialisation. En cherchant à dédier ces technologies au public sourd, cette perspective peut conduire « à la mise en place de dispositifs dits spécifiques qui peuvent induire une mise en marge des publics en situation de handicap » (SOPHYS-VÉRET : 2015). En d’autres termes, le risque est ici de provoquer l’émergence de situations dans lesquelles ces technologies deviennent des marqueurs visibles de l’altération chez un individu, soulignant au passage – pour les personnes conformes aux normes dominantes – son écart supposé au regard de ces normes (WINANCE : 2004). Dans une perspective plus radicale, la spécialisation peut également aboutir au « prétexte d’assistance » (MILLS : 2010). L’accessibilité peut alors devenir un objectif apparent pour, en réalité, camoufler une volonté sous-jacente de satisfaire des enjeux divergents (par exemple : technologiques, économiques, juridiques ou encore politiques) (FRIEDNER, HELMREICH : 2012). Transposé dans le contexte des actions et réflexions menées autour des sourds, ce phénomène peut renvoyer au « hearing savior » (« sauveur entendant »). Ce terme, récemment apparu dans la communauté sourde, décrit une posture spécifique dans laquelle un individu (généralement « entendant ») cherche à améliorer les conditions de vie des sourds à l’aide d’une appréhension erronée des réalités et de normes qui diffèrent de celles partagées dans cette population. En globalisant une conception musicale audiocentrée au détriment des formes d’altérité existantes, l’utilisation des technologies haptiques (mais également du chansigne) pour permettre aux sourds d’accéder à « la » musique devient donc un geste qui pourrait s’inscrire dans cette voie.

Compte tenu des problématiques soulevées dans l’utilisation actuelle des technologies de diffusion haptiques au sein des lieux de circulation de la musique, nous suggérons que la création de nouveaux médiums musicaux fondés sur une réception corpaurale pourrait mener au développement d’un nouveau paradigme musical. En outre, l’un des enjeux de celui-ci serait de proposer des outils au service d’un environnement musical neutre, en détachant l’expérience de la musique de toute injonction liée à la condition physiologique de notre système auditif. Nous proposons ainsi une piste pour l’élaboration d’un nouveau système musical fondé sur l’exploitation de la corpauralité.

La perception vibrotactile et son exploitation dans la conception d’interfaces musicales

La corpauralité fait du corps un lieu de concrétisation de l’expérience musicale. Cette concrétisation est rendue possible grâce aux capacités sensibles du corps à réagir aux stimuli sensoriels de son environnement. Ces capacités se réfèrent à un ensemble de mécanismes physiologiques complexes qui régissent le système somatique sensoriel, appelé aussi « système somatosensoriel », « somesthésie » ou plus trivialement « sens du toucher ». Plusieurs types de récepteurs sensoriels répartis sur et dans l’ensemble de notre corps nous délivrent simultanément des informations, ou afférences, via notre système nerveux périphérique, nous permettant ainsi de percevoir et de ressentir des sensations de nature multiple, telles que la douleur (nociception), la température d’un corps ou du milieu dans lequel nous évoluons (thermoception) ou les stimuli haptiques (mécanoception). En l’occurrence, les stimuli haptiques désignent à la fois les stimuli tactiles, ou « cutanés », et kinesthésiques (LEDERMAN, KLATZKY : 2009).

Parmi les différents stimuli tactiles existants, les stimuli vibrotactiles sont détectés par l’action d’un ensemble de plusieurs mécanorécepteurs (corpuscules de Pacini, de Meissner, de Ruffini, disques et cellules de Merkel, ainsi que les terminaisons nerveuses des poils sur la peau pileuse), chargés de transmettre des informations au système nerveux central (VALLBO, JOHANSSON : 1984). Chacun de ces mécanorécepteurs possède ses propres caractéristiques et délivre donc des afférences différentes qui peuvent être isolées et caractérisées. Il existe ainsi plusieurs modèles neurophysiologiques pour décrire ces différents mécanismes (BIRNBAUM, WANDERLEY : 2007). De plus, contrairement aux systèmes auditif et visuel, ces mécanorécepteurs ne sont pas localisés sur des organes spécifiques, mais répartis sur l’ensemble de notre corps, depuis la surface de notre peau jusque dans nos organes, notre squelette, nos tissus, nos muscles ou encore nos viscères (GOLDSTEIN : 2002). Leur répartition et leur concentration ne sont pas homogènes sur l’ensemble du corps et peuvent grandement varier d’une partie à l’autre (LEDERMAN, KLATZKY : 2009). De ce fait, notre perception des vibrations dépend non seulement d’une interaction complexe couplant différentes informations nerveuses à des paramètres psychophysiques multiples, mais celle-ci varie également en fonction des zones du corps que l’on cherche à stimuler. Cependant, l’étendue de cette complexité, ainsi que les points de divergence importants avec les mécanismes auditifs, semble offrir un large champ des possibles à exploiter dans la conception d’un système musical visant une organisation spatio-temporelle des stimuli vibrotactiles.

En considérant ces possibilités, de nombreux travaux se sont penchés, dans des disciplines variées, sur l’étude de la transmission d’informations musicales à travers des dispositifs vibrotactiles. L’ensemble de ces études forme aujourd’hui un vaste champ de recherche intégrant le domaine général des interactions haptiques homme-machine (REMACHE-VINUEZA et al. : 2021). Le spectre d’applications va de la conception de technologies de retour (« feed-back ») haptiques, destinées aux interfaces de jeu ou d’écoute musicale, au développement de dispositifs de substitution sensorielle pour compenser les effets d’altérations physiologiques éventuelles. De ce fait, de nombreuses études ont cherché à identifier des spécificités auprès de populations sourdes (GOOD, REED, RUSSO : 2014) ou à développer des systèmes expérimentaux afin d’enrichir leur expérience de la musique (PETRY, ILLANDARA, NANAYAKKARA : 2016). La très large majorité de ces travaux se concentre sur l’élaboration de différentes stratégies visant à extraire des caractéristiques ou des paramètres musicaux afin de les transposer, selon une grande variété de mapping, dans la modalité vibrotactile. Or, à l’instar de l’utilisation des technologies haptiques dans le domaine du spectacle vivant, ces transpositions s’effectuent, pour la plupart, à partir d’un processus de traitement du signal d’une source audio qui, bien souvent, se fonde sur des médiums tels que l’emploi de notes de la gamme tempérée occidentale (BRANJE et al. : 2010) ou sur un répertoire musical audiocentré (KARAM, RUSSO, FELS : 2009).

Cependant, parmi l’ensemble des perspectives engagées dans ces travaux, l’une d’entre elles consiste à développer des stratégies de composition pour constituer une « musique vibrotactile » (REMACHE-VINUEZA et al. : 2021). Eric Gunther et son équipe furent parmi les premiers chercheurs à explorer la possibilité de développer un système musical fondé sur la corpauralité (GUNTHER, DAVENPORT, O’MODHRAIN : 2002). Les auteurs ont fourni plusieurs pistes intéressantes, notamment en discutant de la pertinence des principaux paramètres musicaux dans la modalité vibrotactile. Ainsi, la grande divergence de fonctionnement des mécanismes du système somatosensoriel dans la perception vibrotactile et de ceux du système auditif dans la perception aurale de la musique induit une réorganisation hiérarchique de ces paramètres. Par exemple, les limites du champ de perception des stimuli vibrotactiles par l’ensemble du corps étant comprises entre 0,3 Hz (KRUGER : 1996) et 1 000 Hz (VERRILLO : 1992), avec un pic de sensibilité aux alentours de 250 Hz, le paramètre de fréquence (ou de hauteur) n’apparaît plus comme un paramètre de première importance en comparaison avec la plupart des systèmes de composition de la musique aurale. A contrario, au regard de la surface utile procurée par l’ensemble de notre peau, l’espace, paramètre longtemps ignoré dans l’histoire de la musique occidentale, semble ici offrir des possibilités intéressantes pour l’élaboration d’un système musical corpaural. Toutefois, peu de travaux se sont inscrits dans cette direction depuis lors, au profit de celles citées précédemment.

Les rares études qui ont exploré cette voie tendent aujourd’hui à former un consensus autour de la manière d’exploiter le paramètre spatial dans la modalité vibrotactile. En l’occurrence, la plupart des auteurs soutiennent que la création d’illusions tactiles spatio-temporelles sur la peau représente un intérêt majeur dans la composition de la musique vibrotactile (REMACHE-VINUEZA et al. : 2021). Par exemple, dans cette étude (GIORDANO, SULLIVAN, WANDERLEY : 2018), les auteurs ont défini plusieurs séries d’« icônes tactiles », ou « tactons » (BREWSTER, BROWN : 2004), qui schématisent, à travers une configuration de répartition hexagonale de chacun des transducteurs haptiques, les séquences temporelles qui régissent l’ordre d’activation et de délivrance des stimuli vibrotactiles. Similaire aux illusions d’optique provoquées par la persistance rétinienne ou l’« effet phi » dans le système visuel, il résulte de ces séquences des illusions de mouvement tactiles (ou « mouvements fantômes »), ressenties chez l’utilisateur.

Nous soutenons que cet exemple d’organisation spatio-temporelle de stimuli vibrotactiles, qui exploite le paramètre spatial et la sensibilité de notre corps aux vibrations, pourrait représenter une base élémentaire pertinente pour la constitution d’un nouveau système musical et d’un paradigme vibrotactile pour la musique. Nous suggérons également qu’une telle organisation pourrait être intéressante dans l’étude des effets produits par la diffusion de ces séquences sur des participants. Ce type d’approche pourrait permettre, par exemple, de développer un système en fonction de la potentialité propre de ces icônes à induire ou non des éléments émotionnels, et de mettre en lumière des saillances potentielles. En convoquant des participants sourds et non sourds (malentendants, entendants, etc.), cela pourrait également permettre à terme de proposer à des artistes un système de composition mixte, dont l’expérience ne sous-tendrait aucune logique discriminatoire ou stigmatisante. Sur la base de ces travaux, nous proposons ainsi notre propre modèle d’organisation spatio-temporelle de stimuli vibrotactiles : le Vibrotactile Space Trajectory Model (VibSTraM).

Le VibSTraM : vers un codage trajectoriel de stimuli vibrotactiles

Le VibSTraM est un modèle compositionnel proposant une organisation spatio-temporelle de stimuli vibrotactiles. À l’instar des icônes tactiles précédemment évoquées, ce modèle requiert l’articulation de plusieurs transducteurs vibrotactiles pour générer une sensation illusoire de mouvement chez une personne. La différence majeure avec les modèles antécédents réside dans la réorganisation des paramètres de ce système, notamment en ce qui concerne celui de l’espace. Selon nous, plusieurs paramètres supplémentaires doivent être considérés lorsqu’il s’agit du traitement spatial d’un signal vibrotactile. En l’occurrence, les techniques de spatialisation de la musique acousmatique, largement développées depuis les acousmoniums du siècle précédent, permettent aujourd’hui de réaliser, à l’aide d’outils numériques modernes, des automations d’effets qui nécessitaient autrefois une performance complexe dans le mixage multicanal des différentes pistes d’entrée et de sortie. De ce fait, en remplaçant les haut-parleurs par des transducteurs vibrotactiles (appliqués par exemple sur la peau), nous suggérons que la transposition de ces techniques dans le domaine vibrotactile représenterait une solution intéressante…

En lieu et place de la notion de mouvement, la spatialisation de stimuli vibrotactiles pourrait ainsi être caractérisée par la trajectoire dessinée par un stimulus (lui-même modulé par des paramètres propres aux outils de production du signal, tels que l’amplitude, la fréquence ou encore la forme d’onde) dans un espace plan virtuel (multicanal) en deux dimensions (x, y). Certains outils numériques, tels que GRM Tools Spaces, permettent de réaliser aisément cette opération. Une trajectoire consisterait alors en la combinaison de plusieurs sous-paramètres intrinsèques : la direction du mouvement ; le sens de ce mouvement ; la vitesse de ce mouvement (relative à sa durée dans le temps, se rapprochant ainsi de la notion de rythme). Des trajectoires types (fixes, circulaires, rectilignes ou encore curvilignes) pourraient être produites et séquencées dans le temps de manière musicale. Dans la figure 1, nous illustrons un exemple d’intégration de ce principe dans un dispositif vibrotactile multicanal dorsal. À l’instar de la configuration choisie par Giordano et son équipe, nous suggérons que la modularité dans la répartition des transducteurs ou encore leur nombre pourraient également apporter des possibilités supplémentaires. À l’avenir, nous espérons pouvoir expérimenter ce type de système musical dans une étude visant à déterminer ses capacités à induire des émotions, notamment chez des participants sourds et non sourds.

Fig. 1 : Exemple d’intégration du VibSTraM, illustrant plusieurs trajectoires et une séquence de stimuli, à travers un dispositif haptique multicanal et modulaire (16 canaux) de type sac à dos. ©Alban Briceno

Notice biographique

Alban Briceno est doctorant en musicologie à l’université de Lille. Dirigés par Christian Hauer (CEAC, ULR 3587) et coencadrés par Laurent Sparrow (SCALab, UMR 9193), ses travaux de thèse reposent sur le codage spatio-temporel de stimuli vibrotactiles en vue d’élaborer un nouveau système musical pouvant induire des émotions chez des individus sourds et non sourds (malentendants, entendants, etc.). Plus globalement, ses recherches portent sur l’étude des pratiques musicales sourdes selon une approche interscientifique et interdisciplinaire. Depuis 2019, il enseigne également en tant que chargé de cours auprès de plusieurs promotions (licence et master) du département de musicologie.

Bibliographie

Bibliographie

  • BEST : 2018. Katelyn E. Best, « Musical Belonging in a Hearing-Centric Society: Adapting and Contesting Dominant Cultural Norms through Deaf Hip Hop », Journal of American Sign Languages & Literatures, 2018.
  • BIRNBAUM, WANDERLEY : 2007. David M. Birnbaum et Marcelo M. Wanderley, « A Systematic Approach to Musical Vibrotactile Feedback », Proceedings of the International Computer Music Conference (ICMC), 2007, p. 397-404.
  • BRANJE et al. : 2010. Carmen Branje et al., « Vibrotactile Display of Music on the Human Back », Third International Conference on Advances in Computer-Human Interactions (ACHI), 2010, p. 154-159.
  • BRÉTÉCHÉ : 2015. Sylvain Brétéché, L’Incarnation musicale. L’expérience musicale sourde, thèse de doctorat en musicologie dirigée par Christine Esclapez et Jean Vion-Dury, université d’Aix-Marseille, 2015.
  • BRÉTÉCHÉ : 2019. Sylvain Brétéché, « L’écoute encorporée, ou l’émergence du sensible. De la corpauralité à l’écoute musicale sourde », dans Xavier Hautbois et al. (dir.), L’Émergence en musique. Dialogue des sciences, Le Vallier, Delatour France, 2019.
  • BREWSTER, BROWN : 2004. Stephen A. Brewster et Lorna M. Brown, « Non-visual Information Display Using Tactons », Proceedings of the CHI’04 Extended Abstracts on Human Factors in Computing Systems, vol. 28, 2004, p. 787-788.
  • DELALEU : 2021. Fanny Delaleu, Le Gilet vibrant comme moyen d’accessibilité à la musique pour un public sourd et malentendant, mémoire de fin d’études en ergothérapie, dirigé par Béatrice Denègre, Haute École Condorcet, 2021.
  • DELAPORTE : 2002. Yves Delaporte, Les sourds, c’est comme ça, Paris, Maison des sciences de l’homme, 2002.
  • DIPH : 2006. Délégation interministérielle aux personnes handicapées, Définition de l’accessibilité. Une démarche interministérielle, Paris, 2006.
  • FRIEDNER, HELMREICH : 2012. Michele Friedner et Stefan Helmreich, « Sound Studies Meets Deaf Studies », Senses & Society, vol. 7, no 1, 2012, p. 72-86.
  • GAUCHER : 2010. Charles Gaucher, « Les fondements de l’identité sourde », dans Charles Gaucher et Stéphane Vibert (dir.), Les Sourds : aux origines d’une identité plurielle, Bruxelles, Peter Lang, 2010.
  • GIORDANO, SULLIVAN, WANDERLEY : 2018. Marcello Giordano, John Sullivan et Marcelo M. Wanderley, « Design of Vibrotactile Feedback and Stimulation for Music Performance », dans Stefano Papetti et Charalampos Saitis (dir.), Musical Haptics, Cham, Springer Nature, 2018, p. 193-214.
  • GOLDSTEIN : 2010. E. Bruce Goldstein, Sensation and Perception, 8e éd., Boston, Cengage, 2010.
  • GOOD, REED, RUSSO : 2014. Arla Good, Maureen J. Reed et Frank A. Russo, « Compensatory Plasticity in the Deaf Brain: Effects on Perception of Music », Brain Sciences, vol. 4, no 4, 2014, p. 560-574.
  • GUNTHER, DAVENPORT, O’MODHRAIN : 2002. Eric Gunther, Glorianna Davenport et Sile O’Modhrain, « Cutaneous Grooves: Composing for the Sense of Touch », Proceedings of the 2002 Conference on New Instruments for Musical Expression (NIME), 2002, p. 1-6.
  • HÉNAULT-TESSIER, CHRISTOPHE, NEGREL : 2018. Mélanie Hénault-Tessier, Thibault Christophe et Nathalie Negrel, « Sourds et malentendants comme publics de la musique. Le statut ambigu des technologies numériques dans une démarche d’accessibilité », tic&société, vol. 12, no 2, 2018, p. 75-102.
  • KACZMAREK et al. : 1991. Kurt A. Kaczmarek et al., « Electrotactile and Vibrotactile Displays for Sensory Substitution Systems », IEEE Transactions on Biomedical Engineering, vol. 38, no 1, 1991, p. 1-16.
  • KARAM, RUSSO, FELS : 2009. Maria Karam, Frank A. Russo et Deborah I. Fels, « Designing the Model Human Cochlea: An Ambient Crossmodal Audio-Tactile Display », IEEE Transactions on Haptics, vol. 2, no 3, 2009, p. 160-169.
  • KERBOURC’H : 2012. Sylvain Kerbourc’h, Le Mouvement sourd (1970-2006). De la langue des signes française à la reconnaissance sociale des sourds, Paris, L’Harmattan, 2012.
  • KRUGER : 1996. Lawrence Kruger, Pain and Touch. Handbook of Perception and Cognition, San Diego, Academic Press, 1996.
  • LEDERMAN, KLATZKY : 2009. Susan J. Lederman et Roberta L. Klatzky, « Haptic Perception: A tutorial », Attention, perception & psychophysics, vol. 71, no 7, 2009, p. 1439-1459.
  • LINA-GRANADE, TRUY : 2005. Geneviève Lina-Granade et Éric Truy, « Conduite à tenir devant une surdité de l’enfant », EMC Oto-rhino-laryngologie, vol. 2, no 3, 2005, p. 290-300.
  • MILLS : 2010. Mara Mills, « Deaf Jam: from Inscription to Reproduction to Information », Social Text, vol. 28, no 1 (102), 2010, p. 35-58.
  • MINOT : 2009. Anne Minot (dir.), Accessibilité et spectacle vivant. Guide pratique, Ministère de la Culture et de la Communication, 2009.
  • PETRY, ILLANDARA, NANAYAKKARA : 2016. Benjamin Petry, Thavishi Illandara et Suranga Nanayakkara, « MuSS-bits: Sensor-Display Blocks for Deaf People to Explore Musical Sounds », Proceedings of the 28th Australian Conference on Computer-Human Interaction (OzCHI), 2016, p. 72-80.
  • REMACHE-VINUEZA et al. : 2021. Byron Remache-Vinueza et al., « Audio-Tactile Rendering: A Review on Technology and Methods to Convey Musical Information through the Sense of Touch », Sensors, vol. 21, no 19, 2021.
  • SCHMITT : 2011. Pierre Schmitt, « Une langue en situation de handicap. Les sourds et la langue des signes face à la catégorie du handicap », Émulations, no 8, 2011, p. 57-70.
  • SCHMITT : 2012a. Pierre Schmitt, « De la musique et des sourds. Approche ethnographique du rapport à la musique de jeunes sourds européens », dans Talia Bachir-Loopuyt et al. (dir.), Musik – Kontext – Wissenschaft. Interdisziplinäre Forschung zu Musik / Musiques, contextes et savoirs. Perspectives interdisciplinaires sur la musique, Frankfurt am Main, Peter Lang, 2012.
  • SCHMITT : 2012b. Pierre Schmitt, « Points de vue “etic” et “emic” pour la description de la surdité », Alter, vol. 6, no 3, 2012, p. 201-211.
  • SOPHYS-VÉRET : 2015. Sandrine Sophys-Véret, « L’accessibilité à la culture comme vecteur d’un renouvellement des pratiques institutionnelles », dans Joël Zaffran (dir.), Accessibilité et handicap. Anciennes pratiques, nouvel enjeu, Grenoble, PU de Grenoble, 2015, p. 91-106.
  • VALLBO, JOHANSSON : 1984. Ake B. Vallbo et Roland S. Johansson, « Properties of Cutaneous Mechanoreceptors in the Human Hand Related to Touch Sensation », Human Neurobiology, vol. 3, no 1, 1984, p. 3-14.
  • VERRILLO : 1992. Ronald T. Verrillo, « Vibration Sensation in Humans », Music Perception, vol. 9, no 3, 1992, p. 281-302.
  • WINANCE : 2004. Myriam Winance, « Handicap et normalisation. Analyse des transformations du rapport à la norme dans les institutions et les interactions », Politix, vol. 17, no 66, 2004, p. 201-227.