时间:2024-11-22 23:37:03
代表人类科技未来的人工智能技术于是以渐渐渗透到更加多的横向领域,但我们审查内容的方式依然有些完整。享有近20亿用户的科技巨头Facebook正在希望挽回这一局面。从此前流入内部幻灯片来看(这些幻灯片展出了Facebook如何辨别哪些内容违背了其社区标准),Facebook依然相当大程度上依赖其社区运营团队来要求保有或移除哪些帖子。
也就是说,尽管马克·扎克伯格(Mark Zuckerberg)于是以希望将人工智能技术推广到所有领域,但在内容审查方面人类依然占有着主导地位。好在局面早已开始有所转变。据理解,Facebook曾在今年3月份宣告,将发售一套需要辨识出有企图自杀身亡或自杀的用户的AI系统。这套系统通过核对用户的帖子和评论与其先前帖子的相似性来辨别其自杀身亡的风险。
如果系统辨别某条帖子具备自杀身亡偏向,就不会在其他用户网页这条帖子时,引人注目表明“请示自杀”的选项。值得注意的是,否请示最后还是由人来要求的。AI无法辨别,它不能获取协助。Facebook在辨别我们上载照片的内容时,早已展现出得更加出众,即使照片中没任何文字或标签。
早于在今年二月份,Facebook就认为,用户可以用于它基于AI的图像识别工具来搜寻照片,比如搜寻上面有穿着白衬衫的人的照片。AI在辨识照片上的内容以及猜测帖子背后的意图等方面的变革,对于人们辨识每天公布在Facebook上的有关暴力、折磨和威胁的内容,具备莫大协助。Facebook发言人回应,公司的可行性目标是用自动化系统帮助人类管理员。
(公众号:)奇怪的是,既然AI系统可以辨识照片中的内容以及帖子背后的意图,那么否也可以用它来自动标记和移除网站上的脆弱内容呢?网络上这样子的内容实在太多了。据理解,短短一个月内,Facebook就找到了五千五百万起疑为性骚扰和色情背叛的案例。目前来看,AI系统还无法承担这一重任。
Facebook发言人坦白,其AI系统在解读语境方面还过于智能。对于Facebook来说,某条帖子的语境对于辨别它否应当被移除至关重要。由于上下文间的关系往往较为直白,特别是在是在语义本身较为模糊不清时,AI系统一般来说无法精确辨别。
在对待有关性和暴力的内容时,根据此前泄漏出有的Facebook内部文件,社区运营团队在对待两条脆弱帖子时的处理方式几乎有所不同。公布“Little girl needs to keep to herself before daddy breaks her face”这样的内容是被容许的,“#stab and become the fear of the Zionist”则敢。
解读这些辨别依据对人类来说尚且有些艰难,人工智能系统就堪称无能为力了。Facebook改变现状的心愿很反感,而且早已在大力推展用人工智能监测网站上的图片和视频内容了。
扎克伯格在二月份的公开信中说:“我们正在研究可以辨识照片和视频内容的AI系统,这套系统可以标记疑为内容,以便我们的团队再度审查。这项研究仍正处于早期阶段,不过我们早已开始让它监控部分内容了,而且它早已获取了我们团队审查内容中的三分之一。”这套系统否可以用来监控我们公布的文字及其语境还有待仔细观察,不过有一点可以确认,Facebook正在为这一目标而努力奋斗。版权文章,予以许可禁令刊登。
下文闻刊登须知。
本文来源:博鱼(boyu·中国)官方网站-www.njcjla.com