在漫长的一天工作结束后,你刚刚回到家,正准备坐下来吃晚饭,突然你的手机开始嗡嗡作响。电话的另一端是你所爱的人,可能是父母、孩子或儿时的朋友,请求你立即给他们寄钱。
你问他们问题,试图理解他们。他们的回答有些不对头,要么含糊不清,要么不符合他们的性格,有时还有一种特殊的拖延,就好像他们思考得有点太慢了。然而,你很确定那绝对是你所爱的人在说话:你听到的是他们的声音,是他们的声音来电显示显示了他18新利最新登入们的数量。由于他们的恐慌,你尽职地把钱寄到他们提供给你的银行账户。
广告
第二天,你打电话给他们,确保一切都好。你爱的人根本不知道你在说什么。那是因为他们从来没有给你打过电话——你被技术欺骗了:一个语音deepfake。成千上万的人在2022年被骗了.
作为计算机安全研究人员,我们看到,深度学习算法、音频编辑和工程以及合成语音生成的不断进步,意味着越来越有可能做到这一点逼真地模拟一个人的声音.
更糟糕的是,聊天机器人喜欢ChatGPT开始生成具有自适应实时响应的真实脚本。通过将这些技术与语音生成相结合在美国,deepfake从静态录音变成了逼真的真人化身,可以令人信服地进行电话交谈。
广告