HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

ElevenLabs sanctionne le compte ayant utilisé son IA pour imiter la voix de Biden

[ad_1]

Un appel automatisé imitant le président a été reçu par les électeurs du New Hampshire.

Tl;dr

  • ElevenLabs a été utilisé pour créer un deepfake audio de Joe Biden.
  • Cette falsification sonore a tenté de perturber les élections.
  • ElevenLabs veille à prévenir l’usage abusif de ses outils AI.
  • De plus amples mesures de sécurité doivent être mises en place.

Le monde de demain : ElevenLabs et les voix clonées

Dans un univers où technologie rime avec règlement, ElevenLabs, une start-up spécialisée dans le clonage vocal, vit actuellement des moments controversés. Maintes technologies sont susceptibles d’être exploitées d’une manière malhonnête, comme l’a démontré une récente mystification.

Menace sonore pour la démocratie

Selon les informations divulguées par Bloomberg, un utilisateur de ElevenLabs a eu recours à ses services pour créer un deepfake audio de Joe Biden, président américain. Cette falsification auditive fut utilisée dans une tentative visant à saper le processus électoral. Ce subterfuge se materialisa sous la forme d’un robocall destiné à certains électeurs du New Hampshire, visant à les dissuader de voter aux primaires de leur état.

La vérité sonore décodée

Cependant, une analyse minutieuse menée par la société de sécurité Pindrop permit de révéler que la voix de M. Biden avait été copiée grâce aux outils mis à disposition par ElevenLabs. La société accusée a montré une réactivité exemplaire : informée des conclusions de Pindrop, elle a déjà suspendu le compte coupable de la création de cet audio frauduleux.

ElevenLabs face à la responsabilité

ElevenLabs s’est refusé à tout commentaire concernant l’incident en question. Toutefois, elle a affirmé avec force son engagement pour prévenir les usages abusifs de ses outils de clonage vocal. L’émergence de technologies permettant d’imiter la voix d’autrui montre qu’il est désormais possible de manipuler des votes à l’aide de deepfakes, en vue d’induire en erreur les citoyens.

[ad_2]
Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité