La course pour cacher votre voix

Deuxièmement, dit Tomashenko, les chercheurs étudient l’apprentissage distribué et fédéré, où vos données ne quittent pas votre appareil, mais les modèles d’apprentissage automatique apprennent toujours à reconnaître la parole en partageant leur formation avec un système plus grand. Une autre approche consiste à construire une infrastructure cryptée pour protéger les voix des gens contre l’espionnage. Cependant, la plupart des efforts se concentrent sur l’anonymisation de la voix.

L’anonymisation tente de garder votre voix humaine tout en éliminant autant d’informations qui pourraient être utilisées pour vous identifier que possible. Les efforts d’anonymisation de la parole impliquent actuellement deux volets distincts : anonymiser le contenu de ce que quelqu’un dit en supprimant ou en remplaçant tous les mots sensibles dans les fichiers avant qu’ils ne soient enregistrés et anonymiser la voix elle-même. La plupart des efforts d’anonymisation de la voix à l’heure actuelle impliquent de faire passer la voix de quelqu’un à travers un logiciel expérimental qui modifiera certains des paramètres du signal vocal pour le rendre différent. Cela peut impliquer de modifier la hauteur, de remplacer des segments de discours par des informations provenant d’autres voix et de synthétiser le résultat final.

La technologie d’anonymisation fonctionne-t-elle ? Les clips vocaux masculins et féminins qui ont été anonymisés dans le cadre du Voice Privacy Challenge en 2020 sonnent définitivement différemment. Ils sont plus robotiques, sonnent légèrement douloureux et pourraient, du moins pour certains auditeurs, provenir d’une personne différente des clips vocaux originaux. “Je pense que cela peut déjà garantir un niveau de protection beaucoup plus élevé que ne rien faire, ce qui est l’état actuel”, déclare Vincent, qui a pu réduire la facilité d’identification des personnes dans les recherches sur l’anonymisation. Cependant, les humains ne sont pas les seuls auditeurs. Rita Singh, professeure agrégée au Language Technologies Institute de l’Université Carnegie Mellon, affirme que la désidentification totale du signal vocal n’est pas possible, car les machines auront toujours le potentiel d’établir des liens entre les attributs et les individus, même des connexions qui ne sont pas claires. aux humains. « L’anonymisation concerne-t-elle un auditeur humain ou concerne-t-elle un auditeur machine ? » dit Shri Narayanan, professeur de génie électrique et informatique à l’Université de Californie du Sud.

“La véritable anonymisation n’est pas possible sans changer complètement la voix”, déclare Singh. “Quand vous changez complètement la voix, alors ce n’est plus la même voix.” Malgré cela, il vaut toujours la peine de développer une technologie de confidentialité vocale, ajoute Singh, car aucun système de confidentialité ou de sécurité n’est totalement sécurisé. Les empreintes digitales et les systèmes d’identification du visage sur les iPhones ont été usurpés dans le passé, mais dans l’ensemble, ils restent une méthode efficace de protection de la vie privée des personnes.

Au revoir, Alexa

Votre voix est de plus en plus utilisée pour vérifier votre identité. Par exemple, un nombre croissant de banques et d’autres entreprises analysent vos empreintes vocales, avec votre permission, pour remplacer votre mot de passe. Il existe également la possibilité que l’analyse vocale détecte la maladie avant que d’autres signes ne soient évidents. Mais la technologie pour cloner ou simuler la voix de quelqu’un progresse rapidement.

Si vous avez enregistré quelques minutes de la voix de quelqu’un, ou dans certains cas quelques secondes, il est possible de recréer cette voix à l’aide de l’apprentissage automatique. Les acteurs de la voix des Simpsons pourraient être remplacés par de faux clones de voix profonds, par exemple. Et des outils commerciaux pour recréer des voix sont facilement disponibles en ligne. “Il y a certainement plus de travail dans l’identification du locuteur et la production de la parole au texte et du texte à la parole qu’il n’y en a dans la protection des personnes contre l’une de ces technologies”, déclare Turner.

De nombreuses techniques d’anonymisation de la voix en cours de développement sont encore loin d’être utilisées dans le monde réel. Lorsqu’ils seront prêts à être utilisés, il est probable que les entreprises devront mettre en œuvre elles-mêmes des outils pour protéger la vie privée de leurs clients – il y a actuellement peu de choses que les individus peuvent faire pour protéger leur propre voix. Éviter les appels avec des centres d’appels ou des entreprises qui utilisent l’analyse vocale, et ne pas utiliser d’assistants vocaux, pourrait limiter la quantité d’enregistrement de votre voix et réduire les possibilités d’attaque.

Mais les plus grandes protections peuvent provenir d’affaires et de protections juridiques. Le GDPR européen couvre les données biométriques, y compris les voix des personnes, dans ses protections de la vie privée. Les directives stipulent que les personnes doivent être informées de la manière dont leurs données sont utilisées et donner leur consentement si elles sont identifiées, et que certaines restrictions doivent être imposées à la personnalisation. Pendant ce temps, aux États-Unis, les tribunaux de l’Illinois, qui abritent certaines des lois biométriques les plus strictes du pays, inspectent de plus en plus les affaires impliquant les données vocales des personnes. McDonald’s, Amazon et Google font tous l’objet d’un contrôle judiciaire sur la manière dont ils utilisent les données vocales des utilisateurs. Les décisions dans ces affaires pourraient établir de nouvelles règles pour la protection de la voix des personnes.

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire