行文至此,本文终于接近“如何发挥平台在风险交流中的作用”这一核心问题。基于上文对平台风险信息治理的优劣分析,本文将抛砖引玉,提出在平台风险交流制度的具体建构中如何扬长避短的一些思考。
1.依托技术实现信息治理
美国学者莱斯格提出了网络空间“代码即法律”的著名论断。[29]网络空间中,传统法律的实施受到限制,“互联网并非被法律或条例所控制,很大程度上是被形塑网络空间的结构或代码、硬件和软件所控制”。[30]对于风险信息和网络表达的内容治理,平台同样可以依托技术实现信息规制。
“有形的互联网技术治理可以区分为三种:第一种为互联网接入时的技术治理,具体包括IP封锁、外网接入限制等;第二种为互联网接入后的常态性内容治理,具体包括网络实名制、内容过滤和屏蔽技术等;第三种是对网络违法行为的事后治理,具体包括跟踪技术、数据监听技术等。”[31]在信息内容的违法性识别方面,机器学习的引入让技术识别成为可能,“例如,在针对色情内容的审查上,可以通过神经网络算法和庞大的图样数据库,建立并不断完善识别模型,实现对色情内容的自动识别,以对海量的图片和视频内容进行审查”。[32]再如YouTube删除的涉及极端主义等违法信息中,98%都是依托算法自动识别的。[33]以准确的内容识别技术为基础,结合投诉举报机制,事前关键词过滤、停止信息传输(即“删帖”)、一段时间禁止发言(“禁言”)及永久封停账户(“封号”)已成为海内外平台信息内容规制的主要手段。(www.xing528.com)
但在谣言治理领域,过度使用过滤屏蔽机制可能引发对侵犯公民言论自由的担忧,滥用禁言、封号机制也可能侵犯财产权,如“毒舌”电影公众号被封事件。同时,考虑到突发事件中谣言涉及方面的复杂性,对不同类型的信息不宜一概采取“删、堵”的办法。为了防止过滤机制的滥用,可能的策略之一是要求平台公开信息审查与谣言认定的技术标准,例如关键词如何事前确定、对举报信息的审查和处理标准等。对于Facebook,YouTube等美国互联网巨头,“虽然舆论长期呼吁互联网平台内容过滤的透明公开化,但社交媒体审核和过滤的细节则作为商业机密并未公开,负责内容审查工作的员工被公司要求签订长期保密协议,无论在职还是离职都不能公开具体工作细节,因此几乎无人知晓它们如何制定内容审查标准”。[34]但考虑到平台的公共性和规制者地位,行使着规则制定的“准立法权”、采取处理措施的“准行政权”与内部解决申诉纠纷的“准司法权”,[35]平台的规则制定和规制措施应当被纳入公法的透明原则、正当程序原则和比例原则的辐射范围。[36]
2.第三方专业机构的引入
在对风险认知的增进过程中,科学共同体社群体制的正常运转是不可或缺的一环。[37]平台信息治理的显著优势,在于其中聚合了大量科学(专业)共同体组织。调动科学共同体与社会公众的良性互动和知识交流,不仅可以让公众了解事物的科学真相与事实依据,很大程度上也可以减轻集体的恐慌情绪,消除虚假信息传播的土壤。新冠肺炎疫情早期,即便中国疾控中心在2020年1月8日即完成对新冠病毒的基因测序,但当地政府、专家机构与社会公众之间的风险交流并未顺畅进行。面对武汉市卫健委的疫情通报和中疾控专家组早先的乐观表态,不断有网民在微博上表达对于此种新冠病毒传染力和致死力的担忧,然而并没有得到权威的回应。而当新冠肺炎被纳入法定传染病管理,全国采取严格防控措施后,平台风险交流的作用才真正显现。2020年1月25日,微信安全中心发布《关于新型冠状病毒肺炎相关谣言专项治理的公告》,表明“目前已经引进专业第三方辟谣机构,对平台中的谣言进行辟谣”。[38]在疫情之前,各大平台已经纷纷建立新闻查验机构,并与第三方机构如“果壳网”“丁香医生”“科普中国”等建立合作伙伴关系,根据腾讯公司发布的《2019年网络谣言治理报告》,2019年微信平台共生产17 881篇辟谣文章,阅读量达1.14 亿次。[39]对于突发事件疫情中医疗防护常识、防疫管理措施等谣言高发领域,通过平台主动搜集和公众提问、举报,汇集相关虚假信息或真假不明的信息,由具有专业知识的第三方机构负责统一核实、辟谣,发挥社群机制对科普机构的约束作用,是完善风险交流的重要依靠。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。