Supports d'application
Les supports d’application destinés à un public d’acteurs de terrain
(Action de valorisation d’utilité sociale) sont les suivants :
- Support S1 : Études de synthèse du Cued Speech Français et Américain
- Support S2 : Logiciel de Cued Speech en réalité augmentée avec main codeuse
- Support S3 : Capsules avec vidéos codées automatiquement
S1. Études de synthèse du Cued Speech Français et Américain
Ces documents seront élaborés durant le projet et seront mis à disposition.
S2. Logiciel de Cued Speech en réalité augmentée avec main codeuse
Accéder au logiciel :
Suivi de versions :
- 4.10 (avril 2023) : Pour la langue française uniquement, SPPAS peut
produire la suite de clés à coder à partir d'une transcription orthographique,
accompagnée ou non d'un fichier audio. (WP2-L1).
- 4.11 (juin 2023) : La preuve de concept a été re-programmée et donc débuggée.
Elle fonctionne avec n'importe quelle vidéo, pas uniquement la démo. L'angle du bras
est différent selon la clé.
- 4.12 (août 2023) : SPPAS permet de corriger manuellement les annotations,
y compris les annotations vidéo.
- 4.13 (oct. 2023) : la main codeuse peut être intégrée à la vidéo avec
différentes options d'affichage, via une interface graphique (minimale) spécifique.
Fonctionne pour la démo uniquement, et en mode de debug seulement. C'est un
prototype de la future interface.
S3. Capsules avec vidéos codées automatiquement
Les enregistrements relatifs à la création des capsules sont prévus à la
fin de la première année ou au début de la deuxième année du projet (c.-à-d.
février-mars 2024).
Les capsules seront disponibles dans le courant de la 3ᵉ année du projet.
Communications scientifiques
Publications
Brigitte Bigi (2023).
An analysis of produced versus predicted French Cued Speech keys.
In
10th Language & Technology Conference:
Human Language Technologies as a Challenge for Computer Science and Linguistics,
ISBN: 978-83-232-4176-8, pp. 24-28, Poznań, Poland.
Cued Speech is a communication system developed for deaf people to complement
speechreading at the phonetic level with hands. This visual communication mode
uses handshapes in different placements near the face in combination with the
mouth movements of speech to make the phonemes of spoken language look different
from each other. This paper presents an analysis on produced cues in 5 topics
of CLeLfPC, a large corpus of read speech in French with Cued Speech.
A phonemes-to-cues automatic system is proposed in order to predict the cue to
be produced while speaking. This system is part of SPPAS-the automatic annotation
an analysis of speech, an open source software tool. The predicted keys of the
automatic system are compared to the produced keys of cuers. The number of
inserted, deleted and substituted keys are analyzed. We observed that most of
the differences between predicted and produced keys comes from 3 common
position's substitutions by some of the cuers.
Conférences invitées
Núria Gala, Brigitte Bigi (2023).
Création de ressources en langue française parlée complétée pour faciliter
l'accès à la langue orale via l'écrit
Journée scientifique de l'Institut des Sciences et Techniques de la Réadaptation,
Institut des Sciences & Techniques de la Réadaptation, 3 juin 2023, Lyon, France.
La Langue française Parlée Complétée (LfPC ou Cued Speech) est un codage des sons via
des informations visuelles : chaque son est représenté avec une forme de main pour une
consonne et une position autour du visage pour une voyelle. La LfPC est utilisée par
le public sourd et malentendant pour acquérir de bonnes compétences en lecture, en
lecture labiale et en expression orale. Il permet notamment aux enfants sourds ou
malentendants de devenir des bons lecteurs, compétence indispensable pour tous les
apprentissages. Malgré les nombreux travaux démontrant ses avantages, il n’existe
que peu de ressources en LfPC. Aussi, ce projet vise à développer des ressources
pour l’apprentissage et la pratique de la LfPC. Nous nous proposons de développer un
système de réalité augmentée qui place automatiquement la représentation d’une main
codeuse sur une vidéo d’un locuteur pré-enregistré. Un logiciel de codage automatique
LfPC et des bibliothèques de vidéos codées à but pédagogique seront ainsi produits en
respectant tous les critères de l’Open Science. Le système de codage sera développé
sur la base d’observations d’un corpus de 4 heures d’enregistrement audio/vidéo
(Bigi et al., 2022). Les supports textuels de la ressource seront issus du projet ANR
ALECTOR, ce sont des textes simplifiés pour faciliter la lecture (Gala et al. 2020).
Séminaires
Séminaires internes - LPL
Brigitte Bigi (2023).
Réunion équipe VESPA - Variation Et Singularité dans la PArole,
Laboratoire Parole et Langage, 3 juin 2023, Aix-en-Provence, France.
Brigitte Bigi (2023).
Voir les sons avec du "Cued Speech" automatisé :
la réalité augmentée au service des personnes sourdes
Journée annuelle scientifique du Laboratoire Parole et Langage,
23 juin 2023, Aix-en-Provence, France.
Livrables du projet
Work package 1 – Collecte et annotation de corpus codés
WP1-L1 - Segmentation phonétique de CLeLfPC
Cette annotation permet d'indiquer quel phonème a été prononcé, et à quel moment.
Elle concerne 10 locuteurs du corpus CLeLfPC, version 6, déposée sous
licence CC-By-NC-4.0 sur
https://www.ortolang.fr.
WP1-L2 - Annotation en clés de CLeLfPC
Cette annotation permet d'indiquer quelles clés ont été réalisées
durant la lecture. Elle concerne 10 locuteurs du corpus CLeLfPC,
version 7, déposée sous licence CC-By-NC-4.0 sur
https://www.ortolang.fr.
Work package 2 – Des phonèmes aux clés (QUOI ?)
WP2-L1 - Système prédictif des séquences de clés (français)
Le système de prédiction automatique des clés à partir d'un fichier audio
et de sa transcription, pour la langue française, est disponible à partir
de la version 4.10 de
SPPAS.