当地时间10月25日(周一),一名前脸书(Facebook)数据科学家向英国议会网络安全立法委员会作证,称该公司正在“煽动网络仇恨”。
自上周五起,美国各大媒体收到了来自Facebook前员工的内部文件爆料,并对此进行专题报道。这些文件揭露了该公司在今年1月6日美国国会山暴乱前的行动、及其背后的核心思想,还显示该公司无法处理非英语仇恨内容、忽视煽动暴力的外语帖子。
这些文件来自Facebook前数据科学家弗朗西丝·豪根(Frances Haugen),她在离职前带走了数万页的内部研究。此后,她向美国国会(Congress)和证券交易委员会(Securities and Exchange Commission)提供了这些文件,并申请了“吹哨人”(Whistleblower)身份庇护。
“我站出来作证的一大原因是,我对我们社会的状况非常担心,”豪根在周一的证词中说道。
豪根预测,针对此次舆论冲击,Facebook将会宣传公司对减少仇恨言论做出的积极措施,并辩称公司“不是仇恨的发明者”。但她指出,这样的回应并不能直面大众疑虑,也不能解决社会问题——真正的问题出在公司自身,其人工智能(AI)算法和放任态度正在助长网络上的仇恨言论、种族暴力。
2018年,Facebook创始人马克·扎克伯格(Mark Zuckerberg)曾在一份白皮书中写道:除非人工智能剔除有害内容,基于参与度的社交网络内容排名是危险的。然而,豪根曝光的内部文件证明,该公司的人工智能算法并不能有效侦测、去除有害内容。
“正如你所看到的,算法能鉴别的仇恨言论仅占3-5%,能找到的暴力煽动性内容仅占0.8%,”这位前数据科学家作证说。
此外,尽管Facebook称其“支持50种语言”,但豪根指出:该公司对非英语内容的监管力度不足,为其分配的安全系统工作量只占小头。例如,对该公司的内容过滤系统、话题管理者而言,阿拉伯语帖文是一个巨大的挑战。据美联社(Associated Press)报道,讲阿拉伯语的Facebook用户已经学会用符号或空格来规避敏感词汇,例如激进武装组织的名称。
豪根表示,Facebook作为社交媒体巨头,却推崇一种“不负责任的创业理念”——不管是否偷工减料,能够最省事地提高绩效指标的人就是好员工。这种急功近利的企业文化,使其不能有效改善既有问题,也让部分员工感到无所适从。他们认为,该公司对美国日益严重的极端主义采取了停滞不前、甚至适得其反的回应,大吃“人血馒头”。
据美联社报道,1月6日美国国会大厦外发生骚乱期间,一名Facebook员工在内部留言板上写道:“我们长期以来一直在为这把火推波助澜,我们不应该对它现在的失控感到惊讶。”
周一上午,Facebook股价继上周五暴跌后再次小幅下跌,但在盘后半小时有所回升(+8.96,2.73%)。据报道,该公司在盘后公布了高于预期的第三季度收益,而收入却低于预期。
(编辑:金礼玮)
剑网行动举报电话:12318(市文化执法总队)、021-64334547(市版权局)
Copyright © 2016 Kankanews.com Inc. All Rights Reserved. 看东方(上海)传媒有限公司 版权所有
全部评论
暂无评论,快来发表你的评论吧