上周末,一款名为ZAO的AI换脸App风一样地席卷了中文社交网络,该软件号称“仅需一张照片,出演天下好戏”。
通过这个App,用户能够轻松将自己的脸换到影视作品的角色上。
然而爆红不过两天,围绕该App数据安全、隐私风险、肖像权等问题的质疑便满天飞。
用户照片会不会被恶意篡改?会不会用作色情视频?会不会存在面部支付风险?视频素材是否拥有合规版权?
问题一提出,大家立刻发现了ZAO用户协议中的诸多霸王条款。
比如“用户上传发布内容后,意味着同意授予ZAO及其关联公司以及ZAO用户在全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利”。
同时,视频中的素材ZAO也并没有获得明星本人授权。
如果用户因使用换脸App导致了侵犯明星肖像权问题,都将由用户自行承担后果。
也就是说,使用这个AI换脸所产生的法律风险,ZAO通通甩给了用户。
面对众多争议,9月4日早间,工信部表示已对此约谈ZAO公司陌陌。
AI视频换脸,这两年已经越发频繁地出现在我们生活中,其中最出名的应该要属DeepFakes了。
国内外许多网友靠这项技术创作了一系列网络大热的换脸视频,当然也包括成人影片。
不过由于该工具的使用需要具备一定的专业技术,所以并没有在大范围传播开。
但是,AI换脸的走红还是让某些开发者嗅到了商机,他们先后推出了一些易于大众使用的AI工具。
比如之前引发争议最终下线的DeepNude——用户只需点击一下即可在30秒内获得一张“真实”的裸体图片。
目前,无论是国内还是国外,针对AI技术的相关管理规定都还不够完善。
因此,这种没有技术门槛的AI软件一旦泛滥,一来侵犯隐私和肖像权,二来很有可能成为不法之徒用于违法犯罪的工具。
将一个人的脸部交换到另一个人的身体上,也许本身并不是恶意的,但这种技术却很容易跑偏。
此前,寡姐斯嘉丽便炮轰过成人色情网站和某些社区,不该放任以女明星为主角的AI换脸色情视频公开发布。
尽管现在深受其害的人已不在少数,但AI换脸所带来的恶劣行为却依然没有得到法律的约束。
并且,AI技术的发展已经快到了我们难以想象的地步,除了脸部和身体以外,就连声音,也可以仿造。
今天我们要说的这个AI电话诈骗,靠的可不仅仅是能够接听电话的AI智能语音助手,而是更加高级的AI合成语音。
据《华尔街日报》等多家外媒报道,今年3月,有诈骗犯利用AI仿造了某能源公司母公司CEO声音,成功诱骗公司高管向其转账24.3万美元(约175万人民币)。
据报道,当时英国这家能源公司的首席执行官以为自己正在与德国总公司的老板通话。
实际上,电话另一头只是一个模仿其老板声音的AI软件。
最值得关注的是,受骗人认出了自己上司的声音,因为它甚至带有一丝德国口音,和与老板说话相同的“旋律”。
这个熟悉的德国口音来电者告诉受骗人,在一小时内向匈牙利供应商转账24万美元,并表示情况非常紧急。
受骗人转账后,***再次通过AI软件与其进行了第三次电话会议,并催促第二次付款,这才引起英国公司的怀疑。
专家Euler Hermes称,这是他第一次处理使用AI进行模仿的犯罪活动。
现在,AI合成的语音已经变得非常逼真,由此引发的诈骗案数量也在逐年身高。
尤其是随着技术的发展,合成的语音已经足以做到以假乱真。
比如在今年5月,人工智能公司Dessa发布了一个模拟播客Joe Rogan的声音,这个声音几乎完美地复制了他的音质。
就连长期关注Joe Rogan的听众也难以区分这两者之间的区别。
Dessa在一篇博客中展示了这项技术,讨论了该技术将会造成的社会影响,并提出了一些可以使用AI合成语音进行犯罪的例子。
比如,选举操纵,冒充家庭成员,获得授权许可等等。
该博客指出,“在接下来的几年(甚至更早),我们将看到技术发展到只需要几秒钟的音频就可以创造出这个星球上任何人声音的生命复制品。”
至少从现阶段来看,不论是AI换脸的色情影片,还是AI合成的真人语音,所带来的社会影响和风险都是极大的。
随着技术的普及,总有一天会影响到每个人,包括穷人、富人、企业甚至政府。
因此,除了促进科学技术的发展,由此引发的法律问题也急需推动完善。