
Plusieurs outils populaires de clonage vocal sur le marché ne disposent pas de protections "significatives" pour prévenir la fraude ou les abus, selon une nouvelle étude de Consumer Reports. Consumer Reports a examiné les produits de clonage vocal de six entreprises - Descript, ElevenLabs, Lovo, PlayHT, Resemble AI et Speechify - pour les mécanismes qui pourraient rendre plus difficile aux utilisateurs malveillants de cloner la voix de quelqu'un sans sa permission. La publication a constaté que seuls deux, Descript et Représenter AI, ont pris des mesures pour lutter contre les abus. D'autres exigeaient seulement que les utilisateurs cochent une case confirmant qu'ils avaient le droit légal de cloner une voix ou de faire une auto-déclaration similaire. Grace Gedye, analyste des politiques chez Consumer Reports, a déclaré que les outils de clonage vocal AI ont le potentiel de "booster" les escroqueries d'usurpation d'identité si des mesures de sécurité adéquates ne sont pas mises en place. "Notre évaluation montre qu'il existe des étapes de base que les entreprises peuvent prendre pour rendre plus difficile le clonage de la voix de quelqu'un sans son consentement - mais certaines entreprises ne les prennent pas", a déclaré Gedye dans un communiqué.