AntiFake技术可以防止你的声音被AI深度伪造

站长云网 2023-11-29 5iter.com 站长云网

Deepfake人工智能系统最险恶的功能之一是能够复制一个人的声音,即使只是一段简短的录音。人们声音的深度伪造版本以及伪造的视频可以用来使其听起来和看起来好像政客或名人说了一些他们实际上从未说过的话。此外,还有一些情况是,人们接到诈骗电话,其中朋友或家人的深度伪造声音要求他们因某种紧急情况尽快汇款。此外,复制的声音可用于绕过语音识别安全系统。

然而,一种名为AntiFake的新软件工具可以帮助防止这种情况发生。

已经有技术可以确定所谓的声音是否是深度伪造的,AntiFake是最早阻止此类伪造声音产生的系统之一。简而言之,它是通过让人工智能系统更难读取真人声音录音中的关键声音特征来实现这一点。

“该工具使用了一种对抗性人工智能技术,该技术最初是网络犯罪分子工具箱的一部分,但现在我们反过来用它来防御他们,”发明者、圣路易斯华盛顿大学计算机科学与工程助理教授张宁说。

 “我们只是稍微弄乱了录制的音频信号,对其进行扭曲或扰动,使其对人类听众来说仍然听起来不错,但这与人工智能感知到的完全不同。”

这意味着,即使深度伪造是根据经过AntiFake修改的录音创建的,它听起来也不会像说话者的实际声音。迄今为止进行的测试表明,该技术在防止合成令人信服的深度赝品方面的有效性超过95%。

张说:“虽然我不知道人工智能语音技术的下一步会是什么——新的工具和功能一直在开发——但我确实认为我们利用对手的技术来对抗他们的策略将继续有效。”

任何需要的人都可以免费获得防伪代码:

https://sites.google.com/view/yu2023antifake

责任编辑:站长云网