就在刚刚,鹰网事资讯了解到女子地铁照被AI一键脱衣传播,小编搜索发现相关app也在网络传播。 广州一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。虽然AI一键脱衣相关软件早已被封禁,但网络上并不难找出替代品。有博主发视频称,在现今AI强大的算法下,时间、地点都对的上的情况下,伪造的谣言对普通人来说百口莫辩。
AI发展到今天,没见对生活有多大帮助,反而带来更多的困惑。以前P图需要专业技术,现在直接一键换头,明星更是重灾区。说白了,就是恶趣味,满足内心的邪恶。类似荡妇羞辱,得不到的就诋毁,追不上的就造谣,其实就是自卑,心理有问题,行为还违法。这种违法行为,无论受害者性别,始作俑者,恶意传播者,都该被严查追责。多判几个,也就能杜绝了,统一尺度,不要区别对待。
更深一点看,这和各大平台,低俗擦边的视频,不堪入目的评论区,都有关系。这就是潜移默化,影响了整个社会的价值观。
这种事能不能有个反向ai软件——检测一张图是不是AI生成的,传播的时候网站也会检测出这是AI图并且进行提示,严重的可以禁止传播,不然现在造谣也太容易了。
而且不仅仅是造黄谣方面,别的方面也可能AI造假。本来很多网民连低级的Photoshop图片都无法辨认,AI一出来那就更……
PS:没有给造谣者开脱的意思,我是觉得如果一开始图片就能被查出是AI,可以及时阻止传播。
- 搜索相关词: