脸书用人工智能处理错误信息和仇恨表情包

2020-05-14 10:16:54

Facebook的人工智能技术帮助社交网络在你报告仇恨言论之前发现仇恨言论。

facebook已经在人工智能上翻了一番,以检测错误信息和仇恨言论,但社交网络正在发现机器可能很难在网上识别攻击性内容。

周二,世界上最大的社交网络公布了其人工智能系统在试图找到包含错误信息或检测可恨模因的帖子副本时面临的几个挑战。 和其他社交网络一样,Facebook在用户报告内容之前,会使用人类评论者和技术来检测违反其规则的内容。 虽然人工智能已经取得了进展,但错误信息和仇恨言论继续在Facebook和其他社交网络上浮出水面。

风险很大,因为关于引起的呼吸道疾病错误信息可能会导致某人危及他们的健康。 关于如何饮用漂白剂可以治愈或戴口罩的谣言会让你生病,尽管努力阻止它的传播,但仍然会在社交媒体上出现。 同样,网上仇恨言论也会助长现实世界中的暴力。 Facebook面临的批评是,它在打击与缅甸的种族灭绝有关的仇恨言论方面做得不够。

Facebook首席技术官Mike Schroepfer在一次新闻发布会上说,他知道人工智能并不是每个问题的答案。

Schroepfer说:“这些问题从根本上说是人类在生活和交流方面的问题。 “因此,我们希望人类能够控制并做出最终决定,特别是当问题微妙时。”

Facebook拥有近26亿个月的活跃用户,它把人工智能视为一种工具,可以让人类完成很多时间的“苦差事”。

脸谱网一直在减少有害的错误信息,并与包括美联社和路透社在内的60多个事实检查组织合作,审查社交网络上的内容。

今年4月,Facebook在大约5000万篇与相关的帖子上贴上了警告标签。 自3月以来,Facebook删除了250多万条关于销售口罩、消毒剂、表面消毒湿巾和COVID-19测试工具包的帖子,这些项目是社交网络暂时禁止的,以防止价格欺诈和其他类型的剥削。

检测包含错误信息的帖子副本可能是困难的,因为人们有时会用增强现实过滤器来改变图像。 当用户截图时,构成图像的像素也会发生变化。 两个图像看起来是相同的,但包含不同的单词。

Facebook在一篇博客文章中说:“这些都是困难的挑战,我们的工具远非完美。” “此外,这些挑战的对抗性意味着工作永远无法完成。

在一个例子中,Facebook展示了三张相同的卫生纸图片,上面有一个突发新闻标题。 一个是屏幕截图,所以像素与原始照片不同。 另一个标题是“卫生纸中没有COVID-19”,而另外两个标题含有错误信息。

这些图像看起来很像,但其中一个包含错误的信息。

当一个事实检查者将一篇文章标记为false时,Facebook将在用户的新闻提要上显示它更低,并包含一个警告通知。 但是,删除这些内容可能是一场疯狂的游戏,因为成千上万的副本可以在网站上重新出现。

使用一个名为SimSearchNet的工具,Facebook可以通过将这些副本与包含错误信息的图像数据库相匹配来识别这些副本。

Facebook发布的宣传广告中,社交网络暂时禁止的物品,如口罩和洗手液,很难检测到图像是以另一种方式裁剪或改变的。 Facebook表示,它有另一个数据库和系统,帮助公司检测用户为逃避检测而更改的广告。

在市场上,Facebook的一个功能允许用户买卖商品,人们用奇怪的灯光和奇怪的角度拍摄不同背景的物品。 Facebook表示,它能够通过使用口罩和洗手液等公共图像以及看起来像这些产品的照片等数据来改进对违禁品的检测。 Schroepfer说,Facebook正试图训练其人工智能系统,以了解照片中的关键元素,即使有不同的背景。

不过,这个系统并不完美。 根据《纽约时报》的一份报告,Facebook的自动内容调节系统已经对手工制作面具的人进行了标记。

Facebook表示,在用户报告仇恨言论之前,它已经在检测仇恨言论方面取得了长足进步。

根据周二发布的一份社区标准执行报告,在2020年前三个月,人工智能可以主动检测到Facebook删除的仇恨言论中的近88.8%,高于第四季度的80.2%。 该公司在第一季度对960万篇仇恨言论的内容采取了行动,高于上季度的390万篇。

社交网络将这一上升归因于新技术,这些技术帮助机器更深入地理解不同单词的含义。 Facebook将仇恨言论定义为基于种族、性取向和残疾等“受保护特征”对人的直接攻击。 该公司还创建了一个系统,使机器能够更好地理解图像和文字之间的关系。

Facebook使用技术来匹配那些已经从社交网络中删除的图像和文本。 它还改进了用于评估文本和反应是否可能是仇恨言论的“机器学习分类器”。 该公司依靠一种叫做自我监督训练的技术,所以它不必再训练它的系统来检测不同语言的仇恨言论。

仇恨言论对人工智能来说很难察觉,因为它涉及到细微差别和文化背景。 一些人已经收回了诽谤,另一些人在Facebook上使用攻击性语言来谴责它的使用。 用户试图通过拼写错误或避免某些短语来逃避检测。 Facebook上的视频和图片中包含了大量的仇恨言论。

Facebook在一篇博客文章中说:“即使是专家级的人类评论者,有时也很难区分那些属于仇恨言论定义范围的评论,或者忽略了一个没有被广泛使用的成语。”

连接单词和文本会产生一个令人讨厌的信息,人工智能很难识别。

例如,含有仇恨言论的记忆尤其具有挑战性,因为机器必须掌握单词和图像之间的联系。 例如,一个可恨的模因可以包含一个墓碑的图像和单词“每个人在你的民族属于这里。” 单独查看,图片和文字可能不会违反Facebook的规则。 但当把它们组合在一起时,它们会产生一个可恨的信息。

施罗德说不出Facebook是否因为流行而在针对亚洲人的仇恨言论上出现了上升。

不过,由于这一流行病,公司在整个社交网络中的行为发生了巨大变化。

他说:“仇恨言论总体上面临的挑战之一是它会发生变化,而且它是根据你了解当前事件和正在发生的事情而设定的。”

周二,Facebook还发布了一个数据集,其中包含了10,000多个可恨模因的例子,因此研究人员可以帮助社交网络改进对仇恨言论的检测。

该公司还推出了一项名为“可恶的模因挑战”的新比赛,其中包括一个$的10万个奖池。 由驱动数据托管,挑战的参与者将创建模型训练的仇恨模因数据集。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。