女子地铁被贴身体

近日,在广东广州,一张女子在地铁上的照片被AI一键脱衣,造谣图随后在网上广泛传播。

事实上,所谓的“裸照”是一位女博士去年7月在网络平台分享的一张生活照。原图中她衣着正常,没有任何不妥之处,但被人用AI软件一键脱衣,故意全网散播。

一女子地铁内“裸照”被疯传?|科技不该被用在这上面

已经有众多网友发评论,提醒博主被造谣的事实,催促她尽快报警,也有人热心地帮她辟谣澄清。目前博主已在评论区回复各位网友,称会进行维权。

一女子地铁内“裸照”被疯传?|科技不该被用在这上面

在2019年,国外程序员就开发出了DeepNude这款使用AI技术“脱衣”的应用,后因广泛的舆论争议,该项目被关闭。但网上搜索“AI脱衣软件”,仍然会出现众多“替代品”。现今AI强大的算法下,时间、地点都对得上的情况下,伪造谣言对普通人来说百口莫辩。而唾手可得的脱衣软件则更让造谣者有机可乘。

一女子地铁内“裸照”被疯传?|科技不该被用在这上面

和AI脱衣相似的,还有近年来走红网络的“AI换脸”。一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏了不少法律风险和侵权纠纷。

《网络安全法》第二十七条特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持。如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。今年1月10日开始施行的《互联网信息服务深度合成管理规定》中也提出,要对深度合成技术应用提出规范。

本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:dandanxi6@qq.com

(0)
上一篇 2023-04-18 15:38
下一篇 2023-04-18 16:36

相关推荐