来源:36Kr
Facebook文件显示,它试图在理想和现实之间做出平衡----但是,这只是一种被动的应对措施
编者按:Facebook近期被曝光了内部管理员手册,手册表明Facebook还没有掌握自己在世界上的独特作用,它事实上已经改变了我们每一个人。Alexis C. Madrigal日前在the Atlantic中发表题为Facebook Doesn't Understand Itself的文章,论述了Facebook的误区。Facebook正处于被动应对问题的阶段,并没有自觉意识到自己在全球的位置和应当负有的责任。
Facebook的20亿用户每天都在发布新信息,他们会分享婴儿照片、关于浪漫喜剧的观点、对新闻的反应等等,另外,人们也会发布那些令人不安的暴力、虐待和自残等内容。过去10年里,Facebook一直致力于调和后一类内容。Facebook要如何从一大堆威胁话语中辨认出其中的一个笑话、从一大堆色情图片当中辨认出艺术品、从一大把自杀行为中辨认出寻求帮助的信号?他们能在数千名管理员的审核下,正确地为从用户标记的内容当中给那些令人不快的信息分类,他们绝对能做到这一点,那然后呢?Facebook应该怎么做?
Facebook培训监管员时,有100份文件遭泄露,本周末《卫报》开始据此发表多篇文章,并把泄露的文件称为“Facebook文件”。Facebook没有确认,也没有否认文件的真实性,但鉴于《卫报》历史上报道过多次文件泄露的新闻,我们不妨假设这些文件是真实的。
截至目前,《卫报》已经报道了某些特定类型的管理员条例,比如:虐待儿童和动物、色情报复、自残和暴力威胁。
管理员培训手册中充满了上述案例。一些文件训练管理员,让他们不删除那些非常暴力的内容,要让他们知道“真正的”暴力威胁和其他只是嘴上说说的暴力威胁之间的区别。
泄露的幻灯片表明,Facebook已经就一些可怕的内容制定了规定。Facebook创造了社交网络世界,但是它如何看待它在这一网络世界中扮演的角色呢?可能幻灯片已经解释了一部分。
Facebook的培训文件这样解释公司处理暴力内容的缘由:“我们尽可能允许言论自由,但是给那些可能给真实世界造成伤害的内容设限。”
在美国,有许多法律案子都致力于解析对言论的限制和保护,不同国家有不同的规则和规范,但是这些案子都是发生在某个单一国家、政府背景之下的“言论自由”。
然而Facebook只是一个平台,它完全不是一个国家。Facebook没有几个世纪传承下来的宪法和法律解释的约束,它能做想要做的任何事情。
Facebook可能会系统地把危害最小化,而不把言论最大化。这种与之前完全不同的假设可能会导致人们发布动态时自行设置标准。目前流行的儿童网上乐园----企鹅俱乐部提供多层次的语言过滤体系,比如它就有一个“终极安全聊天”模式,只能让人从列表中已经列好的短语当中选择。每天,该软件都会更新上千条短语。但是总的来说,“允许更可能多的言论”从一开始,就一直是这一代社交媒体公司意识形态的一部分。
让人们更多而不是更少地发表言论一直是Facebook使命的核心,这也就无怪乎Facebook来自美国,美国是全世界最支持言论自由的国家。
从泄露的文件以及该公司的声明中,我们能够看出Facebook务实地选择限制这些问题。这些问题主要是通过用户自主标示来解决的。
文件说:“Facebook社区遍布朋友、家人、同事和同学,它大部分是自我调节的。Facebook用户可以举报那些自己认为有问题或令人反感的内容。”