- A+
所属分类:未分类
最近几天,一个能够通过拍照来“剥离”一个人的移动应用程序变得病毒式传播。 在其粉丝和批评者之间的争论之后,该应用程序被从所有平台中移除; 根据网络安全服务专家的说法,创作者提到他们不能允许他们的想法被用于“有害目的”。
这个名为DeepNude的应用程序将图像编辑过度,因为它包含一个机器学习算法,可以在几秒钟内将人从图像的衣服中移除(这种做法称为deepfake )。 该应用程序在涉及女性图像时效果特别有效,因为DeepNude神经网络记录了数百万女性裸体图像。
根据网络安全服务专家的说法,该应用程序的免费版本生成虚假裸体,然后在图像上添加了水印,因此用户必须支付约50美元才能获得高级版本,水印消失了。
为了抵御这个应用程序产生的争议,创作者说:“这个项目的诞生只是一种娱乐形式; 每个月都有一些销售,总是以可控的方式进行。 说实话,应用程序并不总是那么好用; 您只能获得具有特定类型图像的预期结果“。
DeepNude的受欢迎程度在上周末突然增加,显然这不是开发人员设想的变量,因为该应用程序的Twitter帐户提到了多个失败报告和服务中断。 “我们从未想过它会传播病毒,我们失去了对交通的控制。”
但是,网络安全服务专家提到,删除应用程序的决定与技术问题无关。 “增加用户数量也会增加我们的应用程序用于恶意目的的可能性; 这不是我们想要的工作方式,“开发商说。
国际网络安全研究所(IICS)的专家声称,这并不一定能解决问题,因为必须有多个DeepNude副本在黑客论坛或盗版应用程序网站上流传,所以我们可以在将来继续听这个应用程序。
(访问10次1次)
2019年7月1日