语音克隆工具安全漏洞多,防欺诈滥用成难题

   发布时间:2025-03-11 16:21 作者:沈如风

近期,《消费者报告》杂志披露了一项令人担忧的研究结果,揭示了市场上多款热门语音克隆应用的安全防护机制存在严重缺陷,未能有效防范欺诈和滥用行为。

据悉,该杂志的研究团队深入调查了六家公司的语音克隆产品,这些公司分别为De、ElevenLabs、Lovo、PlayHT、Resemble AI以及Speechify。研究的核心在于评估这些产品是否具备阻止恶意用户非法克隆他人声音的有效手段。然而,调查结果显示,仅有De和Resemble AI两家公司采取了相应的防护措施,以防止技术被滥用。

具体而言,除了De和Resemble AI之外,其他几家公司仅要求用户进行简单的自我声明,确认自己拥有克隆声音的合法权利。这种简单的确认流程显然不足以遏制潜在的滥用风险。研究团队指出,这样的安全漏洞可能为冒名顶替诈骗等不法行为提供可乘之机。

针对这一现状,《消费者报告》的政策分析师格蕾丝・盖迪表达了她的担忧。她强调,如果企业不加强安全措施,AI语音克隆技术将可能极大地增加冒名顶替诈骗的风险。盖迪在声明中指出:“我们的评估表明,通过采取一些基本措施,企业可以显著增加未经授权克隆他人声音的难度。然而,遗憾的是,并非所有公司都意识到了这一点,并采取了相应的行动。”

这一研究结果引发了公众对语音克隆技术安全性的广泛关注。随着技术的不断发展,如何在享受技术便利的同时,确保个人隐私和信息安全,成为了亟待解决的问题。对于企业和开发者而言,加强安全防护机制,防范技术滥用,不仅是对用户负责,也是对社会负责。

 
 
更多>同类内容
全站最新
热门内容
本栏最新
 
智快科技微信账号
微信群

微信扫一扫
加微信拉群
电动汽车群
科技数码群