
这些新闻在“ Birgaza”中是正确的吗?
听说可以防止暴风雨,车辆雕塑和其他车辆被“捆绑”
风暴“ Baigaza”充满了力量,许多广东朋友已经展示了自己的步骤,以防止在社交平台上进行暴风雨,例如关闭窗户和将门廊物品移至房间。这些图片中的一些引起了人们的关注。
如果有任何图片显示,为了防止车辆暴风雨,主人用大麻绳将汽车绑在地面上,被称为网民的“大领带”。还有照片,剃光树绑扎的车辆最终被一棵剃光的树击中。
在同一天,其他网民传播的照片显示,深圳证券交易所前面的牛雕塑也与润滑剂“捆绑”并绑在柱子上。这些照片迅速通过互联网,一夜之间,激发了大量的前锋和注意力,使人们更加惊讶Storm News。
昨天(24),中国互联网谣言平台拒绝了谣言说,经过验证后,发现这些图片有许多不合理的细节,并且具有清晰的AI合成痕迹。
专家评论:假图片并不完美
在暴风雨来临之前,谣言首先到了。 AI的一些图片欺骗了许多网民。这些图片是否真实,是否很难说出这些图片? AI专家说,这些图片并不完美,仍然可以看到一些AI痕迹。
专家说,这种假图像是一种生成的人造智力模型,可以通过练习大量真实的图像来学习视觉特征,例如天气,光和阴影,建筑风格,姿势角色等。
如何知道错误的图片?
网络安全专家Pan Jiming:尽管AI产生的图像变得越来越现实,但仍可以通过某些技术痕迹来识别它们,例如异常图像细节,包括不均匀的灯光T和阴影,光资源的方向和阴影的长度不符合物理定律。 AI产生的图像可以被模糊或重复纹理,例如水面,云,树叶和其他具有较重油漆或重复质地的区域。此外,存在类似的情况,即MGA文本令人困惑。下图中的“深圳证券交易所”一词是模糊的或消失的。
如何防止这种信息的传播?
网络安全专家Pan Jiming:在个人层面上,您需要对具有未知资源的图片保持警惕,例如太完美或意识到,并优先考虑官方信息。同时,如果图像源可靠,则可以使用反向搜索来验证。在技术层面上,可以促进使用AI生成的检测工具通过数字水印技术迫使AI生成的内容。
人工智能将综合灾难中的错误信息和IL合法的
据了解,在网上报道的一些涉及风暴“ Huagaza”的合成AI照片是从各个平台上的货架上删除的。几乎每一次自然灾害都来临,各种相关的谣言似乎引起了人们的关注。法律专家说,即使这些假货用它来欺骗交通,它们也会受到法律的惩罚。
中国政治科学与法律大学副教授朱·韦(Zhu Wei):在暴风雨越过之前,之后,人工智能这样做是为了创建谣言,事实证明,这些信息已被合成或虚假。此信息通常是非法信息。根据互联网,应根据《安全法》第12条第12条法律限制和删除此类信息的传播。
中国社会科学学院互联网法治研究中心主任刘小色(Liu Xioochun):法律禁止信息或谣言本身。如果是错误的创建了信息,即创建和传播谣言,将会产生严重的后果和法律责任。
同时,互联网平台还有义务识别谣言并防止谣言传播。如果可以识别平台,如果没有有效地确定该平台,则该平台还应带来相应的责任。