张潇 崔晗博 华东政法大学
【摘要】随着人工智能的发展应用,技术伦理正在迈向一个新的阶段。保持新闻传播领域中技术、受众、社会三者之间的平衡,是当前伦理建构的重中之重。新闻的伦理性作为不可或缺的价值考量要素,对新闻生产、新闻分发和新闻体验的过程具有重要意义。以新闻传播中的伦理考量为研究前提,从人工智能新闻的生产、分发、受众三个层面分析其中可能存在的伦理失范风险,尝试从价值引导与技术信任,政治、技术与市场逻辑同构,技术赋权与信息异化等角度探索媒体智能化发展下新闻伦理构建的问题,最大限度地发挥人工智能应用于新闻传播活动的潜力,引导技术“向善”,真正成为人实现自由的工具。
【关键词】信息异化;新闻伦理;“信息茧房”;人工智能
一、新闻传播中的伦理考量
新闻伦理是媒体及从业者、媒体机构等在新闻传播过程中新闻价值、道德规范和行为准则的总和。新闻的伦理性作为不可或缺的价值考量要素,对新闻生产、新闻分发和新闻体验的过程具有重要意义。将道德伦理与新闻实践相结合,是国家文化建设的基本要求,把握好新闻传播中伦理的建构,能很大程度地避免异化效应的产生。
(一)信息选择的道德标准
作为新闻生产的首要环节,信息选择在新闻传播活动中占据重要地位。如何选择或筛选有用、有效、有益的信息,是新闻工作者最重要的日常工作。新闻价值的判断标准,往往取决于新闻生产之初信息选择的伦理性或道德性程度。新闻价值是以社会效应为中心,以传播主体利益为前提,以受众利益为基础的一个系统。[1]坚持信息选择的真实性、准确性和客观性是实现新闻价值的最佳途径。
信息选择的真实性是指新闻工作者在信息采集过程中,以还原事件真相为己任,不捏造、不改编,给公众传递正确的事件过程及结果。信息分为直接信息和间接信息,最大限度地获取新闻事件的直接信息是所有新闻工作者在新闻生产环节中应当具备的职业素养,这就要求事件发生后最短时间内,记者应迅速到达事件现场对信息进行采集,用报道对事件进行真实还原。间接信息往往是在无法获取直接信息的情况下的无奈之举,通过其他渠道或者路径获得“二手信息”,这其中的真实性尤其值得考量。
信息选择的准确性,即信息收集过程中的准确程度。在新媒体爆发式成长和泛滥的状况下,如何实现对信息的甄别和把控是当务之急。在社会主义法治国家建设的过程中,准确性的界定被赋予了全新的意义,不仅要求在筛选过程中需保持信息的完整与精确,更要加强报道在社会主义核心价值观引领上的思想正确。媒体自由植根于强有力的媒体法则,坚持准确性是新闻工作人员的基本操守,也是信息选择中的必然要求。
信息选择的客观性要求媒体需将官方或存在分歧的观点全面真实、不加偏颇地呈现给公众。兰斯·班尼特认为新闻所承担的责任不仅仅是告诉公众哪些问题值得思考,还要告诉公众该怎么去思考。[2]记者是事件的传递者,而不是事实的仲裁者。坚持信息选择的客观性需新闻工作者保持绝对的中立,引导读者理性思考、关注事件本身,避免舆论的发酵与失控。不以公共利益为噱头,不以新闻卖点换注意力,坚守道德伦理的底线。
(二)信息发放的目的取向
周勇教授认为,受众对世界的理解是由媒介传播所建构起来的。[3]信息传播过程也是价值观传递的过程,明确媒体机构信息发放目的对公众舆论具有预测作用。作为连接新闻工作者与受众的中间环节,信息发放的目的决定了新闻传播的预期效果。随着社会的进步与经济的发展,新闻伦理也呈现阶段性的变化。如何在日新月异的环境变化下,始终把握正确的价值观输送,是新闻机构一直以来所希冀和追求的。
在人工智能时代,能否有效地避免“信息茧房”的产生和信息异化的演进,都具有极大的不确定性。但在报道中公共利益与个人利益何者更具优先性这个经典问题上,它所蕴含的目的取向一定是当下社会价值的外在表现形式。尽管信息时代利益的争夺已经进入白热化的程度,但实现对公民价值的正确引导,尊重法律法规,向民众传递积极、理性、全面的信息,依然是新闻工作者及其机构应当坚守的道德底线。与传统媒体相比,新媒体的传播者除了职业性的新闻工作者外,还增加了想要与公众分享信息的独立个人。任何人都可以在信息发放中传递自己的价值观和道德标准,通过互联网将思想见解呈现在广大受众眼前。相应地,伦理的考量范围应扩大到社会的每个人身上,传播伦理从简单的职业伦理转变为个人伦理、社会伦理。[4]在公众行使表达自由和知情权的同时,尽量降低虚假新闻等恶性事件给社会带来的负面影响,避免公众成为负面新闻的受害者。
(三)信息接收的价值判断
信息接收作为新闻传播的最后一步,是新闻效果的最终体现。信息接收包括整理、加工使用、变换和反馈等步骤。该环节以受众为重点,其获取信息、辨别信息、吸收信息的能力都决定了信息价值观的传递效果。
受众作为新闻信息的直接接收方,由于年龄、国籍、精神状态的不同,对相同信息的理解能力和接受能力也各不相同。因此,受众自身具备的道德素养与信息传递的价值内涵是一对辩证统一的概念。一方面,信息接收者拥有的伦理基础是获取信息、解读信息的前提,一个具备道德判断能力和伦理意识的人,能够对信息进行自觉筛选,在真假新闻中拥有自己的预判,从而获取真正有价值、有意义的信息,实现正确信息所蕴含的伦理道德观的传递。另一方面,受众具备的道德判断又来源于信息传递中价值观的输出。价值观是在时代变迁中不断进行更新和完善的,没有以往价值观的积淀与累积,就无法形成现今的价值判断。
二、人工智能应用于新闻传播活动引发的伦理失范风险分析
人工智能应用于新闻传播活动最早可以追溯到20世纪90年代中期,机器人记者之父哈蒙德发明了一个可以追踪使用者阅读和写作习惯,并借此推荐相应文章的软件。真正意义上的人工智能新闻源于2006年,商业数据供应商汤普森公司(Thomson Corporation)开始使用计算机程序对相关财经数据进行加工处理,并整合成完整的新闻报道文本,用以取代传统财经新闻记者所从事的事实类报道工作。2009年,美国西北大学智能信息实验室研发并推出了一款名为“统计猴”(Stats Monkey)的软件。该软件能对棒球比赛中选手、比赛得分和获胜率等数据进行抓取和筛选,并在12秒内自动生成一篇完整的报道。2010年初,“统计猴”被运用于财经报道中,该项目的两位研发人员成立了“叙事科学”(Narrative Science)公司。2010年之后,人工智能新闻在技术迭代的助力下,呈现纷繁复杂的形式。包括新闻线索的搜集、记者假设的印证、报道写作自动化、智能分发、受众互动等都有了人工智能技术的参与,对新闻生产、传播、受众各个领域都产生了颠覆性的影响。
而对于新闻伦理的考量总是伴随着新闻传播活动的变化而变化,“当社会生活变化时,道德概念也会变化”。[5]有学者认为,一旦媒介技术向前发展,媒体的权力必定膨胀,加上技术应用之初缺乏规制,新的传播伦理问题随之产生。[6]智能新闻作为技术驱动的产品,在为新闻业带来发展的同时,技术复杂性和技术缺陷等原因也导致其为社会和个人带来了某些新的不确定损害的可能性,伦理失范的风险由此产生。下文将从人工智能新闻的生产、分发、受众三个层面分析其中可能存在的伦理失范风险。
(一)新闻生产层面
1. 以数据为基础的新闻生产所引发的伦理风险
失实风险。人工智能新闻生产离不开互联网发展带来的“数据爆炸”和云技术提供的数据存储、分析便利。人工智能技术在数据的收集、归类、分析、存储方面大大超越了人脑,在新闻报道中,运用这些技术可以避免由于人类记者能力不足或工作失误导致数据信息处理不准确而造成的新闻失实。目前的机器新闻写作大致是这样的一个模式:“计算机主要是通过数据输入模板搜集数据,然后将其填入数据输出模板,再进行适当的调整润色来完成报道。”[7]然而这样的报道完全依赖于数据而非以往的基于记者对现实的观察,技术黑箱切断了数据结论与事实之间的联系,存在着新闻失实的风险。当报道所完全依赖的数据本身不实时,那么机器人记者就不可能做出真实可靠的报道。例如,智能机器人通过分析某部电视剧在所有网络平台的观众评论语言的感情色彩等之后产出一篇报道,认为这部电视剧非常受/不受欢迎。然而当这些好评/差评并非都是真正由观看这部片子的人类观众做出的,而是由水军机器人编造的,那么这篇报道就无法反映其想要反映的真实情况。从另一个例子可以看出这类新闻生产对于新闻真实性的其他危害。《洛杉矶时报》体育报道团队在寻找周末棒球赛的报道思路时利用非监督学习来发现新闻线索。报道团队向分析系统输入所有周末棒球比赛票房数据,很容易发现一些隐藏的关系。系统可能找到“那些姓氏以元音字母开头的经理人负责的球队可能输掉早上的比赛,或者比赛日气温越低则比分越低”。[8]即使这样的报道所依据的数据是完全真实可靠的,我们要怎样才能判断其真实性呢?有学者认为“大数据的核心特色是强调伴随性指标的相关关系,大数据方法甚至于公开拒绝因果关系的认识逻辑”。[9]如果我们只把这些报道作为街谈巷议的谈资也倒无妨,但这种报道的新闻价值将大打折扣。因此笔者认为,人工智能新闻时代新闻的失实风险不仅在于新闻客观上与事实不符,还在于它对真实性价值的模糊。大量的客观数据指向的结论往往具有很强的迷惑性,对于它的实践检验又往往难以实现。过去我们常常讲“真实是新闻的生命”,现在,新闻似乎已经获得了第二生命。
隐私权问题。近年来关于大数据开发应用与隐私权保护的问题引起人们热议。我国学者基本上达成这样一个共识:个人在网络使用的过程中产生的数据本身不属于隐私的范围,但是通过对这些数据进行分析得出具有隐私属性的个人信息当属隐私权保护的范围。卡斯特认为,新媒介时代的一个标志是紧密联系的社区形式变成以自我为中心的网络。网络时代,个人的形象呈现越来越显著,大众对于个人的兴趣也越发浓厚(“人肉搜索”的流行即是例证)。与此同时,互联网应用的全面普及使个人信息有了被更全面地收集的可能性。如上文所言,人工智能新闻的生产正是以对数据的分析为基础进行的。目前的人工智能新闻报道多应用于适合模式化报道的领域(如财经新闻、体育新闻等),如果未来个人的相关事宜成为其报道热点,那么公民的隐私权也许会遭到更严重的践踏。
新闻同质化问题。新闻同质化问题在新媒体时代已经成为一个突出的问题,“洗稿”的流行是一个重要的原因,而在人工智能应用于新闻生产之后,“洗稿”可能会变得更加便利和隐蔽。一是当前已经研发出专业的“洗稿”机器人,能迅速地将输入的文章拆解、分析、替换语句,更加智能地作业。二是智能写作机器人以网上海量数据为基础,这些数据可能包括其他同行的新闻作品、研究数据等,这样产出的作品难免会出现他人原创的内容,导致作品越发趋于同质化。且因对于他人著作权的侵犯,导致新闻业内原创的积极性下降,进而又一次促发了新闻产品的同质化。同时,数据库的单一也会导致产品的同质化。大数据越来越被各大网络平台公司视为重要的战略资源,传统新闻媒体要引入智能化的新闻生产线,则不得不面对数据库单一的问题。不过现在众多的网络公司推出了自己的新闻产品,使其加入自己的数据经济产业链,有利于这一问题的解决。
2. 算法控制下新闻生产的伦理风险
算法偏见问题。算法偏见在智能新闻生产中表现为选题、报道中价值判断的不客观和不公正。[10]外表上,算法作为一种数学模型来控制新闻生产,能有效地避免人作为控制者本身所具有的偏见、歧视等不良因素。然而,2017年初,皮尤研究中心推出的《算法时代》研究报告,针对算法偏见访谈了35位相关专家,得出结论认为:“算法的客观中立仅仅是理想,创建算法的人即使尽量做到客观中立,也不可避免地受到自身成长环境、教育背景、知识结构和价值观的影响。此外,创建算法所依赖的底层数据的有限性也会导致算法偏见。”[11]也就是说除了算法设计者本身的价值偏向会被有意无意地植入算法内,更难以避免的是算法将纷繁复杂的客观世界简化为有限的模型,天然地存在一种先定的价值选择。因此算法控制下生产的新闻亦不能免于存在偏见的质疑。
算法不透明引发信任危机。传统的新闻生产流程简单,受众容易理解。而算法存在“技术黑箱”现象,这些仅由高科技公司掌握的算法使新闻生产过程对于普通受众完全“黑箱”化,这样容易使公众质疑新闻传媒产品的质量。甚至,许多专业的新闻从业者亦显示出对人工智能新闻的不信任,在2017进行的一项针对新闻从业者如何看待人工智能对新闻生产的冲击等问题的实证研究中,研究者发现新闻从业者的从业时间越长,他们对人工智能的态度越消极(见表1)[12]。这些算法根据怎样的逻辑产生、算法是否可靠、算法是否存在偏见等一系列问题如果不能有一个切实的回答,那么人工智能新闻的信任危机就难以消除。
表1 工作年限与如何看待AI利弊的交叉分析
算法导致的权利义务平衡问题。以前的新闻作品内容如果侵犯了他人的权利,可以根据不同的情况认定由消息源、媒体、记者个人等承担相应的责任。当新闻作品是算法自动生成的时候,这个问题就变得复杂起来。在人工智能新闻生产中,如果编程过程中出现重大错误,算法可能会忽略人类预先确定的数据,从而扭曲输出,编辑和事实核查人员将没有相应的技术来识别它,[13]若内容侵权,该追究编辑、核查人员还是算法程序员的责任?更有甚者,当无监督深度学习应用于新闻生产的时候,机器在某种程度上将通过自己的“大脑”决定输入怎样的数据、输出怎样的内容,人的因素被排除在外,产生的内容往往也是不可预测的,这种情况下更难以辨别谁是作品的作者、谁该对此负责。这样的问题难以解决,会导致进行人工智能新闻生产的媒体、公司的权利义务失衡,技术优势者难以避免地滥用权力。这样人工智能技术应用于新闻不但无法减小反而扩大了“数字鸿沟”。
(二)新闻传播与媒体机构层面
1. 智能分发技术制造“信息茧房”问题
人工智能技术不仅影响了信息本身,还使人际交往和社会构成发生了变化。[14]现在各大网络新闻平台大多采用了智能推荐的技术,通过收集使用者身份信息、过往的阅读记录,分析其习惯、爱好、兴趣、所属环境,有针对性地向他们推送新闻。这样做的初衷是在当前信息冗余的环境下帮助受众从海量信息中找到自己所需要的信息。然而,受众的个性化需求本身存在一定的场景偶然性,一些个性化推送可能只是受众在某个情境下偶然触发的,导致之后的推送信息不能完全满足受众的需求。更令人担忧的是,受众如果长期只接收这些自己感兴趣的内容,就会减弱了解其他不同种类信息的机会和能力,在不知不觉中被困在一个“信息茧房”之中。凯斯·桑斯坦在提出这个概念后继续推论,由于“信息茧房”的存在,人们只会选择和接触与自己意见相近的人群,采纳符合自己预期的观点,于是逐渐形成“回音室效应”(Echo Chambers),个人所认同的意见和观点,以及所感兴趣的事物,都会在这种传播场域中得到“正反馈”式的激励和放大。[15]如果我们依照这样的逻辑继续推论,这种效应使人们在认知上容易形成偏见,将自己的认识、理解偏信成社会大众的认识,并变得难以理解和理性处理与己不同的看法。进而影响到行为层面,在这样的固化见解的包裹下,人们也会倾向于与自己观念亲近的人交往,疏离意见分歧者,这样一来“群体极化”就在所难免。国内有学者认为,“信息茧房是目前海量信息环境下差异化消费的必然结果。如今个人不再遵循大众媒体时代的信息编排、时空限制,而是以个人的兴趣为核心去为信息制定价值,这也必然会造成与传统大众媒介时代相比,个人信息系统的千人千面、各有所好。这是社会发展和人们信息消费迭代升级的外在表现之一”。[16]目前的矛盾在于用户信息需求的流动、复杂、演化与算法控制下信息分发的固化、简单、重复之间的固有矛盾。
2. 媒体深陷价值引领危机
在我国,新闻事业的功能不仅仅在于报道新闻、传播信息,更有反映和引导舆论的任务。新闻媒体通过议程设置,使重要的新闻得到广泛的关注,形成舆论力量,进而影响社会各类成员的行动,促进社会发展。而目前成熟应用的人工智能新闻多以受众需求而非公共利益为导向,基于算法的热点新闻生产和分发单纯迎合受众口味,容易导致新闻失衡,真正重要的新闻被边缘化。同时,与人类记者相比,智能机器人没有全局意识,在哪些情况下应该做怎样的报道,会收到怎样的效果,它都无法判断,也不善于发表具有引领作用的深刻见解,严重削弱了新闻媒体的监督功能和价值引领作用。
(三)受众层面
人工智能新闻行业模式使受众异化为算法新闻背后的资本注意力资源的来源。马克思主义哲学认为,异化是人的生产及其产品反过来统治人的一种社会现象。在异化中,人丧失能动性,人的个性不能全面发展,只能片面甚至畸形发展。如今,人手一部智能手机,我们花费在网络上的时间越来越多,不得不思考我们的主体性是否已经让渡给了日渐依赖的技术。在注意力经济模式下,互联网公司持续收集用户数据,并通过算法实现个性化的内容推荐,从而更好地影响用户的日常交往,并持续吸引用户的注意力。我们自由选择信息的权利在算法制造的泡沫中逐渐消磨,原本出于满足自身的考量变成了算法控制下没有目的的痴迷,受众渐渐异化为这种经济模式下资本注意力资源的富矿。受众在算法推荐面前失去知情权和选择权,算法自动推荐的新闻内容,针对个人的信息推送和热门榜单,大多都是未经用户知情并同意的行为,是机器替用户做的选择。即使有征求意见的环节,对于公众来说,面对技术的黑箱,也很难做出真正符合信息选择本意的决定。这进一步侵害了公众对除推荐之外的其他信息的知情权,由此限制个人思想发展和生活的改善,技术没有成为人实现自由的工具。
三、媒体智能化发展下的新闻伦理建构(www.xing528.com)
(一)加强价值引导重塑技术信任
1956年,麦肯锡在美国达特茅斯学院举办的会议中,首次提出“人工智能”一词,这标志着“人工智能”概念的正式诞生。[17]60年后的今天,人工智能迎来了第三次发展浪潮。随着社会领域中人工智能应用的深化和科学技术的不断进步,人工智能正在从有限人工智能向通用人工智能转变。在通用人工智能阶段,人造机器所拥有的类人化智能系统和自主性判断机制,将会给人类社会带来众多未知的考验。随着自动驾驶车辆事故、机器人伤人事件的频发,国际上围绕人工智能的安全问题与伦理话题的探讨已经不在少数。马化腾在“2018世界人工智能大会”上提到,我们需要充分考虑未来人工智能发展可能带来的社会影响,并从问题的角度思考未来人工智能如何做到可用、可靠、可知、可控。尽管人工智能的发展给社会带来不少负面影响,但技术进步的大趋势是无法避免和逆转的,所以我们需要的是价值引导,努力把技术掌握在控制范围内,树立“创新与伦理并重”的理念,实现技术向善的社会转型,获取公众对技术的信任,从而创造技术价值。
技术没有伦理道德,但创造、研发技术的人本身却具有基础的价值判断,他们在模型设计、系统编程的过程中,会赋予数据一定的价值伦理。这种伦理包含公平、正义等道德品质,是涉及人与政治、人与经济、人与文化之间关系的评价标准,因此具有先天的价值倾向性。算法的价值取向决定着算法结果的好坏,而价值取向又必然涉及道德考量。[18]如果能通过加强对价值的引导,重新定义人工智能道德伦理规范,不失为一个根源性的解决途径。以马化腾提出的“四可”原则为中心,尝试探索智能时代应有的技术伦理观,重塑数字社会的技术信任。首先是可用原则,遵循以人为本的发展理念,尽可能让更多人公平地享受到网络时代带来的数字红利,让信息资源在人群中得到合理的分配与安排。尤其应当加强对信息弱势群体的保护,在技术条件、搜索过程、传播内容等多方面为信息弱势群体提供妥善的服务,缩小民众之间的信息鸿沟,实现信息的公平传播。其次是可靠原则,主要是指网络空间安全问题,人工智能在使用、操作的过程中应当是安全可靠的,不管是安全防御系统还是检查监督系统,都应在人的可控范围内进行投放使用,在广泛推广前应进行严密的测试与审核,确保信息安全。除了要加强对人工智能研发者的管理、对智能机器类型的审核、对购买者的监管外,还要确保数据的隐私保护,防止数据滥用。再次是可知原则,这就对人工智能的透明性提出了全新的要求。这里的透明性并不是要求技术对全部人公开,而是指有差异性的公开。面对不同的主体,技术的透明性应具有不同的标准。对政府而言,需要对技术的算法数据及运作模式进行了解,才能实现对作用效果和社会影响的有效把控。对公民而言,需要对产品的操作方式和使用目的有合理的认知,才能从内心接纳、信任该技术并广泛使用。最后是可控原则,充分发挥人的主体性,通过使用技术、控制技术达到满足自身需要的目的。这里的可控既包括风险可控,也包括利益可控。既要熟知技术可能带来的经济效益,充分发挥数据信息优势,又要对技术带来的风险与弊端进行预测与监控,积极应对前沿技术可能带来的社会问题与国际问题。
(二)推进政治、技术与市场逻辑优化同构
2014年8月召开的中央全面深化改革领导小组第四次会议中,通过了《关于推动传统媒体和新兴媒体融合发展的指导意见》,媒体融合理念已经成为近期媒体改革的重要发展趋势。在习近平关于媒体融合发展的系列重要讲话中,从政治逻辑、技术逻辑与市场逻辑等维度对媒体融合发展做出了辩证剖析,该理念对传统媒体和新兴媒体的发展具有巨大的推动作用。[19]
从政治逻辑的角度出发,国家新闻传播活动的目的在于政权的长治久安。技术的发展,使信息来源、内容量、表现形式变得多样性的同时,也给政治意识形态管理带来了不小的挑战。报纸时代信息流通速度慢、形式单一,公众获取信息的来源往往通过官办报刊,政府能够较为轻易地统一民众价值观和维系社会的稳定发展。人工智能时代,集传播者与受众者于一体的网民,积极使用网络信息技术传递个人或团体价值观,其中不乏裹挟众多迎合民众的低俗信息,导致主流舆论逐渐被边缘化,给社会治理带来众多负面影响。从市场逻辑的角度出发,维护信息自由市场的自发调节功能,根据信息产品的供求状况进行自然淘汰。约翰·穆勒认为只要不侵害他人的边界,人就是自由的。在市场逻辑下,应当尊重信息的选择权,根据市场需求进行资源配置,实现新闻生产自由。但资本的目的是追求剩余价值而不是追求人的全面自由发展,缺乏政府管控的新闻,往往监督与审核力度不够,尤其在行业自律模式还未成熟的情况下,完全的市场化会加剧媒体机构趋利避害结果的产生。娱乐化、低俗化、虚假化性质的蔓延,最终会造成新闻市场的虚假繁荣。从技术逻辑的角度出发,应当将理论逻辑与技术相结合,创造具有先进性、符合人工智能特质的新闻产品。技术改变了新闻的生产方式,提高了新闻工作效率,但依然无法弥补其缺乏伦理性的弊端。人工智能无法做到对信息进行伦理化筛选。计算机在运行时依靠的是算法,数学公式能判断数据大小,却无法衡量道德和法律秩序的程度。在不同区域、不同场合,人类社会默认的伦理道德标准各不相同,如何保证算法公式在实际操作中,不会引发隐私泄露、有失公正、侵犯尊严等问题仍有待考察。
政治逻辑、技术逻辑与市场逻辑各具特色,拥有优势的同时也存在弊端。智慧社会的建设需要将多种逻辑进行优化同构,运用复合逻辑的优势实现社会的可持续发展。完善人工智能背景下的逻辑融合,既要呼吁监管法律政策的革新和创新,对数据技术实施“软法”规则,又要及时掌握信息自由市场的自发规律,充分有效地规制风险,增加研发人员和监管人员的伦理道德教育,采用事先治理和事后管理双向并行的举措应对人工智能时代的变化。
(三)妥善把控技术赋权与信息异化边界
伦理问题归根到底是作为“一切社会关系总和”的人的价值关系问题,即要确定一种有利于人类所有主体在独立自主中促使价值目标包容性实现的规范体系。[20]在人工智能时代,迫切需要解决的便是人与技术的关系问题。
技术发展变革初期,都是以人使用技术为目的。人类希望用机器解放自己的双手,提高工作效率和准确性。目前我国学界对“技术赋权”一词还没有严格的界定和定义,康奈尔大学赋权研究小组将“赋权”界定为“一种社区有意识地包括互相尊重、批判性反应、关怀和团体参与的过程,通过这个过程对有价值的资源缺乏平等分享的人们对这些资源获得更多的接近和控制”。[21]从对赋权的定义中我们可以认为,技术赋权指的是在有机会使用技术、利用技术的人中,通过对技术的操控以达到改变自身不利处境、提高自身能力的概念。人工智能发展到今日,人类通过技术赋权所拥有的技术能力是前所未有的。面临的技术挑战与技术威胁也是无法比拟的。技术的进步使人类获取其外在力量的同时,也逐渐感受到信息异化带来的威胁。人创造了信息,却反过来被其统治、支配,深陷“信息茧房”的束缚,不健康的媒介现实使民众信息选择权被剥夺,丧失主体性,陷入信息困境。信息价值无法得到彰显,导致了媒介对人的异化。因此,从技术赋权到信息异化,两者之间是否存在可供把控的临界点,以避免技术赋权向信息异化的转变,这值得更进一步的探讨。
在技术哲学中,人是一种没有本质的动物,人的本质需要进行自我建构,而这个“构建自我本质”的重要环节就是工具,就是技术。[22]因此,在人与技术的关系问题上,我们应当保持清醒与自觉,始终将技术放在工具本位上,始终将人作为目的放在价值关怀的终点。[23]让技术为人所用,而不是被资本所驱使,让新闻接收主体成为“数字劳工”。在算法新闻平台中,受众应牢牢掌握主体性,通过控制对技术的使用来实现对世界的认知,打破标准化、同质化的外壳,积极探寻一个全面、理性、客观的真实世界。充分发挥主观能动性与自主性,避免人类社会陷入技术异化的陷阱中。
结语
人工智能技术是第四次工业革命最主要的动力来源,新闻业的突破性发展离不开相关技术的应用。在其应用初期难以避免地产生各种各样的伦理风险,颠覆我们的认知,挑战我们的道德信条。我们认为在媒体智能化发展下的新闻伦理建构需要加强价值引导、重塑技术信任,协调技术、市场、政治逻辑,既要以促进国家和社会的整体发展为目标,最大程度发挥人工智能应用于新闻传播活动的潜力,又要坚持新闻专业精神的核心理念,关注普通大众的发展需求。引导技术“向善”,真正成为人实现自由的工具。
[1]王兵. 新闻传播实践中的伦理考量[J]. 传播力研究,2019,3(21):32-33.
[2][美]兰斯·班尼特. 新闻:幻象的政治[M].9 版. 杨晓红,王家全,译. 北京:中国人民大学出版社,2018:23.
[3]毕璐健. 新闻伦理的反思与构建——全国媒介化社会背景下的新闻伦理构建研讨会会议综述[J]. 青年记者,2017(33):40-41.
[4]王佳华. 试论基于新媒体视域下的新闻传播伦理困境[J]. 新闻传播,2018(02):32-33.
[5][美]阿拉斯戴尔·麦金太尔. 伦理学简史[M]. 龚群,译. 北京:商务印书馆,2003:23.
[6]靖鸣,娄翠. 人工智能技术在新闻传播中伦理失范的思考[J]. 出版广角,2018(01):9-13.
[7]杨保军,杜辉. 智能新闻:伦理风险·伦理主体·伦理原则[J]. 西北师大学报(社会科学版),2019,56(01):27-36.
[8]Mohamed Altantawy:Fighting information overload with summarization,Agolo\官网:https://www.agolo.com/splash。
[9]喻国明. 大数据方法与新闻传播创新:从理论定义到操作路线[J]. 江淮论坛,2014(04):5-7+2.
[10]杨保军,杜辉. 智能新闻:伦理风险·伦理主体·伦理原则[J]. 西北师大学报(社会科学版),2019,56(01):27-36.
[11]RAINIE L,ANDERSON J.Code-Dependent: Pros and Cons of the Algorithm Age[EB/OL].(2017-02-08). http://www.pewinternet.org/2017/02/08/codedependent- pros-and-cons-of-the-algorithm-age/.
[12]胡翼青,朱晓颖. 人工智能的“幻影公众”——基于新闻从业者实证研究的考\察[J]. 中国出版,2018(19):15-21.
[13]李慧敏. 谁该为人工智能新闻的伦理失范负责?[J]. 新闻战线,2019(12):105-107.
[14]陈昌凤,翟雨嘉. 信息偏向与纠正:寻求智能化时代的价值理性[J]. 青年记者,2018(13):21-24.
[15][美]凯斯·桑斯坦. 信息乌托邦:众人如何生产知识[M]. 毕竞悦,译. 北京:法律出版社,2008:8.
[16]喻国明,曲慧.“信息茧房”的误读与算法推送的必要——兼论内容分发中社会伦理困境的解决之道[J]. 新疆师范大学学报(哲学社会科学版),2020,41(01):127-133.
[17]徐英瑾. 心智、语言和机器——维特根斯坦哲学和人工智能科学的对话[M].北京:人民出版社,2013:4.
[18]袁帆,严三九. 新闻传播领域算法伦理建构[J]. 湖北社会科学,2018(12):182-189.
[19]林如鹏,汤景泰. 政治逻辑、技术逻辑与市场逻辑:论习近平的媒体融合发展思想[J]. 新闻与传播研究,2016,23(11):5-15+126.
[20]周挥辉. 论传播伦理的内涵建构[J]. 理论月刊,2018(04):157-161.
[21]互联网黑马. 都说互联网赋权,究竟是什么互联网赋权?[EB/OL].(2017-03-15)[2019-09-09].http://toutiao.manqian.cn/wz_7kjOOGVLKL.html.
[22]吴国盛. 技术哲学讲演录[M]. 北京:中国人民大学出版社,2009:5.
[23]杨保军,李泓江. 论算法新闻中的主体关系[J]. 编辑之友,2019(08):5-11.
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。