当前位置:综合 > 快讯 > 正文
人工智能如何检测和创建假新闻
2023-04-05 05:48:49 来源: 元宇宙网

生活中,很多人都不知道人工智能如何检测和创建假新闻,其实非常简单,下面就是小编搜索到的人工智能如何检测和创建假新闻相关的一些知识,我们一起来学习下吧!

最近人工智能如何检测和创建假新闻这个话题,相信很多小伙伴都是非常有兴趣了解的吧,一段好的故事可以给读者带来很多值得深思的新东西,甚至还可以在一定程度上让读者的视野在瞬间扩大,那么既然现在大家都想要知道此类的信息,今日小编将给带来关于人工智能如何检测和创建假新闻的资讯!


【资料图】

当马克·扎克伯格(Mark Zuckerberg)告诉国会时,Facebook将使用人工智能来检测社交媒体网站上公布的虚假新闻时,他对此并不特殊清晰。考虑到我自己使用图像和视频分析所做的工作,我建议公司应分外小心。尽管存在一些潜在的基本缺陷,但AI可以成为发现在线宣传的实用工具-但它在制造误导性材料方面也可以令人吃惊。

研究人员已经知道,在线假新闻比真实新闻传播得更快,更广泛。我的研究类似地发现,带有虚假医学信息的在线帖子比具有准确医学内容的在线帖子获得更多的观看,评论和喜欢。在一个在线世界中,观众的注意力有限,并且对内容的选择充满了兴趣,假冒信息似乎常常对观众更具吸引力或吸引力。

问题变得越来越严峻:到2022年,发达经济体中的人们可能会遇到比真实信息更多的假新闻。这可能导致研究人员将其称为“现实眩晕”的现象-计算机可以产生令人信服的内容,以至于一般 人可能很难再弄清真相了。

数十年来,机器学习算法是一种AI的成功类型,它通过分析消息的文本并确定特定消息是来自实际人员的真实通信(或大规模分发的药品招标)的可能性来成功抵御垃圾邮件。或声称已失散多年。

在打击垃圾邮件的这种文本分析的基础上,AI系统可以评估帖子的文本或标题与某人在线共享的文章的实际内容的比较程度。另一种方法可以检查相似的文章,以查看其他新闻媒体是否有不同的事实。类似的系统可以识别传播假新闻的特定帐户和来源网站。

但是,这些方法假设散布假新闻的人不会改变其方法。他们经常改变策略,控制假帖子的内容,以使它们看起来更真实。

使用人工智能评估信息还可以暴露并扩大社会中的某些偏见。这可能与性别,种族背景或邻里定型观念有关。它甚至可能产生政治后果,潜在地限制了某些观点的表达。举例来说,YouTube已停止从某些类型的视频频道中投放广告,从而浪费了创作者的钱。但是,使用AI来检测虚假新闻的最大挑战是,它将技术与自身进行军备竞赛。事实证明,机器学习系统具有令人难以置信的能力,可以创建所谓的“深造假”(deepfake)-照片和视频可以用一个人的脸来代替一个人的脸,从而使某人看起来像是在露脸的姿势中拍摄照片,还是在公众场合拍摄照片。图在说他从未真正说过的话。甚至智能手机应用程序都具有这种替代能力-即使没有好莱坞级别的视频编辑技能,这也使几乎任何人都可以使用该技术。

研究人员已经准备使用AI来识别这些AI制造的假货。例如,用于视频放大的技术可以检测到人类脉搏的变化,从而确定视频中的人是真实的还是计算机生成的。但是伪造者和伪造者都会变得更好。有些伪造品可能变得如此复杂,以至于很难被驳回或驳回,这与前几代伪造品不同,后者使用简单的语言并易于提出反驳的主张。

打击假新闻传播的最好方法可能是依靠人。虚假新闻的社会后果-更大的政治两极分化,增加的党派参与以及对主流媒体和政府的信任削弱-具有重大意义。如果更多的人知道赌注如此之高,他们可能会更警惕信息,尤其是如果信息更多地基于情感,因为这是一种引起人们关注的有效方法。

当某人看到令人发指的帖子时,该人最好调查信息,而不是立即共享。共享行为也使帖子具有可信度:当其他人看到该帖子时,他们会注册该帖子是由他们认识的人共享的,并且可能至少信任一点,并且不太可能注意到原始消息来源是否可疑。

诸如YouTube和Facebook之类的社交媒体网站可以自愿决定为其内容加上标签,以清晰地表明某项声称是新闻的项目是否已得到信誉良好的消息来源的验证。扎克伯格告诉国会,他想动员Facebook用户的“社区”来指导他公司的算法。Facebook可以众包验证工作。维基百科还提供了跟踪和验证信息的专门志愿者模型。

Facebook可以利用与新闻机构和志愿者的合作伙伴关系来培训AI,并不断调整系统以响应宣传者在主题和策略上的变化。这不会捕获网上公布的每条新闻,但是它将使许多人更容易从假冒中分辨出事实。这样可以减少虚构和误导性故事在网上流行的机会。

关键词:
责任编辑:zN_0506