版权所有:《党政研究》编辑部 PDF版
 
文章检索
 
  在线投稿
您现在的位置:第14期 -> 人工智能风险的意蕴生成与治理路径 -> 内容
人工智能风险的意蕴生成与治理路径
作者:郑容坤     发布时间:2020-09-01  查看次数:    
人工智能风险的意蕴生成与治理路径
  
郑容坤
  
  
  〔摘要〕人工智能风险意指因人工智能技术的不确定性所诱发的对人类经济结构、社会秩序、伦理道德乃至生存安全等方面的可能性后果。风险技术与技术风险共同型构人工智能的风险议题,致使人工智能呈现出有别于风险社会其他技术风险的客观现实性、主观建构性、技术非人化特征。风险技术是人工智能风险的生成因子,源于技术理性的认知局限、人类主体的主观利益、类人自主的它者欲望等技术性缺陷。技术风险则是风险技术的后果显影,指涉人工智能风险表层波及面的广博性以及深层次的工具性与价值性两种动态风险情形。当信息技术甚嚣尘上,人工智能高歌猛进时,不断升级的风险技术难题将加剧技术风险的严峻境遇,最终引致人类陷入技术化泥潭。化解人工智能附加于人类的技术化生存危机,需要立足技术迭代与人类理性的双重考虑,更新人文治理理念、构建协同治理机制、优化多样治理工具等途径不失为规避人工智能风险的有效路径。
  〔关键词〕人工智能;技术风险;风险治理;风险社会;技术伦理
  
  
  无论是贝克的《风险社会》,抑或吉登斯的《失控世界》,都指向现代社会的一个共同命题,即技术与风险的关联性。当人类科技一路高歌猛进之时,技术的普罗米修斯效应紧跟其后。人工智能作为引领工业4.0的人类科学技术也难以逃脱技术风险的命运窠臼,“人工智能在贡献世界、发挥影响、促成改变的同时,也易于诱发系列风险危机,例如劳动的脱嵌与消匿、人与人的疏远与隔离、人类的被超越与被控制等”〔1〕,进而构筑人工智能的风险议题。人工智能风险意指何物?如何生成?有何形态?如何因应?对此,本文尝试从风险社会的理论视角进行初步的探讨。
  一、提出问题:人工智能风险的出场


  自1956年达特茅斯会议首提人工智能术语至今60多年来,人工智能经历了从爆发到寒冬再到野蛮生长的历程后,在2016年以谷歌围棋程序人工智能AlphaGo战胜世界冠军李世石为指标性事件,人工智能开启对人类社会权力组织、经济生产和治理方式的颠覆性变革。人工智能“在带给人类巨大进步与福利的同时,也带来了不可忽视的伦理风险、极化风险、异化风险、规制风险和责任风险”〔2〕以及决策风险等现代性社会问题。对此,已有研究立足法学、伦理学、管理学等展开跨学科研究,打破人工智能发展的工程“技术领土”边界,并围绕技术、社会、治理视角进行学术反思,表达对人工智能风险及其化解的人文关怀。  
  首先,技术视角的风险,主要源于算法客观性与主观性等技术属性的内在缺陷。算法的客观性在于人类有限理性之下对算法技术的不确定性认知,而算法的主观性强调算法程序的主体恶念,两者造就了人工智能的“算法失序”,进而衍生为人工智能风险。在人工智能算法被视为一种新的权力形态时,囿于算法歧视、算法黑箱、算法偏见以及算法自利等主客观缺陷,人工智能算法的政治与道德风险在所难免。避免因算法失序带来的技术风险,应实行算法监管关口前移,“树立以风险防范为目的的监管思路,实行内容与算法并重的双轨审查机制,以及设立平台责任与技术责任双轨并行的责任体系,并对算法的生产性资源数据的收集和使用进行合理限制”〔3〕。  
  其次,社会视角的风险,来自于人工智能应用中呈现出来的“墨菲定律”①。一是法律风险,认为人工智能作为一种发展型的技术体系,具有超前性、复杂性的社会属性,然而因缺乏法律的有力规制会产生法律失效危机。当前人工智能法律风险涉及智能体的法律主体资格评价〔4〕、行为责任认定以及刑罚类型设置〔5〕等议题,强调从违法主体(是人类还是类人)为出发点规避社会风险〔6〕。二是伦理风险。人工智能的发展可能引发责任伦理冲突的社会扩大问题与隐私群体化泄露风险〔7〕,通过规约智能机器设计者、所有者、使用者等主体行为,提倡人工智能研发与应用阶段的伦理道德,才能在保障智能机器与系统的安全基础上,维护人类社会的健康发展。〔8〕三是失业风险。人工智能技术的迭代升级,一方面可能会取消大规模的简单劳动,形成结构性失业,甚至会击垮社会分层结构的中产阶级,最终致使社会资源流向少数资本精英和技术精英,加剧社会走向实质的不平等〔9〕,同时也诱发失业人员无法获得与社会技术相匹配的新技能的再就业风险〔10〕〔11〕。有部分研究立足国家层面,剖析人工智能对国家主权安全、国际战略合作、数据共建共享以及国家责任〔12〕等方面的风险治理命题。  
  最后,治理视角的风险。社会领域在吸纳人工智能技术实施智能化治理时,潜在着人工智能技术的“反制性”,即技术发展的不确定性导致社会治理存在从“数字民主”滑向“技术利维坦”的潜在风险〔13〕。有效规制人工智能的潜在风险,需要从善治的角度着手,“通过社会多元主体的共治,构建可控的应用环境、可靠的安全属性、合理的责任机制,形成科学和有效的人工智能风险治理体系”〔14〕。同时,应从基础治理、综合治理、伦理治理相统一的系统治理思路出发构建人工智能风险化解的整体性机制。
  ①“墨菲定律”、“帕金森定律”和“彼德原理”并称为二十世纪西方文化三大发现。墨菲定律是一种心理学效应,由爱德华·墨菲(Edward A. Murphy)提出的,亦称墨菲法则、墨菲定理,认为如果有两种或两种以上的方式去做某件事情,而其中一种选择方式将导致灾难,则必定有人会做出这种选择。简言之,如果事情有变坏的可能,不管这种可能性有多小,它总会发生。参见〔美〕阿瑟·布洛赫.墨菲定律〔M〕.太原:山西人民出版社,2012。
  已有文献立足技术、社会、治理三个视角,遵循现象-原因-对策的阐释路径反思人工智能的风险生发机理,这些研究为本文的展开提供有益支持。然而,相对于人工智能技术的突飞猛进,现有的研究略显瓶颈,亟需在深度上拓展。本文以此为进路,结合风险社会理论,建构风险技术与技术风险的互构逻辑,试图阐释人工智能风险的内涵意蕴、生成机理、形态特征以及善治思考。  
  
  二、人工智能风险的意蕴与特征:风险社会的新风险图景  
  
  在经历两次世界大战之后,人类社会进入了极盛现代化表象下各类风险暗流涌动的风险社会。对于这类风险社会的理论阐释当属乌尔里希·贝克(Ulrich Beck)与安东尼·吉登斯(Anthony Giddens)的风险社会理论。贝克在《风险社会》书中,首提风险社会概念,认为科技在促进社会发展的同时,也暗含着对生态环境和人类自身的副作用,人类已处在技术性风险所构筑的境遇之中。吉登斯则以西方资本主义社会的现代性为切入口,阐释技术风险对社会结构与社会秩序的撕裂问题,强调现代社会周遭的风险属于人造风险(manufactured risk)系列,是由人类自身制造出来而有别于自然风险的形态,同时因其由人类无限制利益的驱动,将会是人类所面临的最大威胁〔15〕。贝克和吉登斯旗帜鲜明地认为,风险社会是一个反身性(Reflexivity)现代化的社会,即“创造性地(自我)毁灭整整一个时代——工业社会时代——的可能性。这种创造性毁灭的‘对象’不是西方现代化革命,也不是西方现代化的危机,而是西方现代化的胜利成果”〔16〕。他们认为风险社会的归宿是人类现代文明的毁灭,其根源在于人类对技术创新、发展的无止境追求,而人类的这种非理性技术冲动是现代性制度失范的再次作用。吉登斯从制度主义视域揭示风险社会产生的制度根源,包括现代性赖以支撑的资本主义、工业主义、监督和军事力量等四类制度性失范〔17〕。贝克进认为风险治理的关键在于完善社会规范和制度体系,因为“风险社会的教训是:政治和道德正在获得——必须获得!——替代科学论证的优先权”〔18〕。  
  风险社会理论展示风险生产的一个基本逻辑:自现代化以来,风险支配正逐渐由自然风险转为人造风险,同时由于制度失范致使人类无节制地利用技术在探索未知世界的过程中,不断地制造出可能危及人类文明的各类技术风险。克隆人、核武器、基因编辑婴儿、情感机器人、性伴侣机器等人类技术的研发与应用,加剧了人类社会秩序与伦理道德的现实危机。随着人工智能技术的迭代升级,人工智能技术将得以大规模普及,然而技术的副作用效应也愈发凸显。无论是《人工智能》《终结者》《奇点》《机械姬》《Tron》等科幻作品,还是埃隆·马斯克(Llon Musk)、史蒂芬·霍金(Stephen Hawking)、史蒂夫·沃兹尼克(Steve Wozniak)等人的批判言辞,无不饱含着对人工智能未来发展的深深担忧。  
  人工智能发轫于20世纪50年代,兴盛于21世纪初,其形成轨迹契合风险社会的指涉范围与运作机理。于风险社会而言,人工智能风险是一种人造的特殊的技术风险,然而,我们长期缺乏对人工智能风险的分析〔19〕。在现实中,关于人工智能风险的情境叙述更多以科幻小说或影视等体裁呈现;从政策目标看,中央与地方涉及人工智能风险防范目标的比重分别为10.28%和3.38%,较低于社会、经济等发展目标,表明公共政策并未对人工智能潜在的风险和挑战予以应有关注〔20〕。这两方面共同提出了一个紧迫性命题,即需要对人工智能的风险生成、形态特征以及规制途径做出客观判断。人工智能是一类不断升级的智能技术体系,界定其潜伏的风险,可以从技术视角加以解构。我们认为,人工智能风险意指因人工智能技术的不确定性所诱发的对人类经济结构、社会秩序、伦理道德乃至生存安全等方面的可能性后果。相对于核武器、核电站、转基因食品、基因编辑婴儿等技术引发的风险,人工智能风险更具自主性与颠覆性,是风险社会的一种新形式险种。本质看,人工智能风险命题涵括两个内容:一是风险层面的技术性缺失,即风险技术。二是技术层面的风险性后果,即技术风险。两者互为因果关系,共同型构人工智能技术之于人类社会的风险议题。风险技术与技术风险合谋作用下的人工智能风险超越人类对风险的一般性感知。我们认为作为一种已经形成或正在加剧的智能性风险,人工智能风险具有客观存在性、主观建构性、技术非人化三个主要特征。    
  首先,具有客观存在性。人工智能风险内嵌于人造的“智能体”及其行动时空中,会通过人工智能的技术缺陷引发现实性安全问题。这种技术缺陷及其诱发的风险事实,并不以人类的主观意识而转移,而是客观存在于人类社会中。美国路易斯维尔大学的亚姆波斯基(Roman Yampolskiy)教授在《人工智能与网络安全:人工智能失效时间表》一文中,梳理2016年以来人工智能发展带来的风险类型,比如微软聊天机器人TAY散布种族主义;特斯拉半自动驾驶系统发生车祸,致人死亡;巡逻机器人失控撞击儿童等〔21〕。这些问题业已存在人类社会之中,不仅危及人类生命健康安全,而且冲击着人类平等、正义、民主等美好价值。  
  其次,具有主观建构性。人工智能引发的社会风险是人类主体基于逻辑判断之后能够感知与预测的社会问题。吉登斯认为风险标志着与传统社会的根本性决裂,是面向未来的产物,而人类囿于不同的文化背景和价值观则会形成异质性的风险认知方式。在不同的社会制度下,社会公民会持有不同的风险认知;在同一制度下由于社会分层结构以及知识体系的差异也会有各异的风险感知。对人工智能的快速发展,社会上有发展论与否定论两种相对的观点:前者认为“人工智能发展契合人类需求”“人工智能危机论是个伪命题”;而后者则提出“人工智能颠覆人类”“主奴关系错置”“结构性失业”等人工智能危机说。其实这些说法,各有其合理成分,都立足于人类对技术风险的建构性与反思性。例如,就业可能是人工智能首先刺破的人类社会防线,未来人工智能技术将给就业带来结构性变革,将会引发“大多数利益受损”和“极少数权益被剥夺”问题。有多项研究显示,超过50%的现有工作岗位最终将完全被自动化和机器人替代①,而如何治理人工智能带来的就业问题,则亟需人类的理性策略。
  最后,具有技术非人化。从本源看,技术是人性与物性的自洽。刘同舫教授认为,技术的人性是人的能动性和目的性的外化,而物性则表现为任何技术的产生、发展都不能脱离具有客观实在性的自然物,不能违背自然规律。〔22〕人工智能技术作为人类科技史的高新技术,在经历机械智能到弱人工智能再到强人工智能之后,将会达到技术奇点②。这种阶段提升过程预示人工智能从机械思维到智能自主的“华丽变身”,其本质是人工智能技术逐渐脱离技术的人性与物性特征,并成为具有独立自主的非人性力量。在奇点时代,人工智能将无视其“人性”和“物性”的质性规定性,而解构其内在统一性,被视为人类的强势对手,而“人的生理能力因技术的替代而退化,人的精神能力因依附于技术而受到技术的控制和折磨”〔23〕,人类自身最终反倒为技术物化,沦为技术的附庸。这是人工智能技术对人类的最为根本性的危害。
  ①2010年牛津大学研究预测未来10至20年将有47%的岗位会被人工智能所取代;2016年世界经济论坛预测未来5年将有500万个岗位会失去;2017年麦肯锡研究报告显示60%的职业面临被技术替代的可能性。
  ②奇点(Singularity)意指异常、奇特之义,数学奇点表示为不可定义的点,而技术奇点最早为著名数学家冯·诺依曼(Johnvon Neumann)提出,强调奇点是技术对人类社会的重大变革时刻。雷·库兹韦尔在《奇点临近》(The Singularity is Near)一书中阐释人类与技术相结合的观点,并把人工智能超过人类的那一时刻叫做奇点。参见高奇琦.人工智能:驯服赛维坦〔M〕.上海:上海交通大学出版社,2018:187-188.
  我们承认,当人类步入现代性时,就隐喻走进了险象丛生的风险世界。人类中心主义思潮主导着人类对技术的无限追求,并自诩为“人类是万物的尺度”,宣称人类理性能够驾驭技术的工具性,能杜绝技术之于人类社会的潜在副作用。其实不然,人工智能的技术风险已展现出超越人类理性的认知边界,这决定人工智能风险是风险社会的一类严峻风险情形,同时也强化审视人工智能风险必须成为人类社会的重要议题。  
  
  三、技术与风险:人工智能风险的因果  
  
  在人工智能时代,世人享受着智能化所带来的物质便利与精神陶冶,然而,任何技术都是两面性的,当我们浸淫于算法程序所设定的技术世界时,我们容易迷失自我,忘却人类最为本真的人性价值,而将其让渡于机器智能,致使在个体身心、社会秩序乃至人类命运出现深度风险。斯蒂芬·霍金(Stephen William Hawking)曾说:“人工智能之于人类,可能是最好的事情,也可能是会终结人类的最坏事情”,同时“我们不能把飞机失事归结于万有引力;同样,不能把人类毁灭归罪为人工智能”。霍氏言辞表明辩证审视人工智能技术的重要性。我们认为,人工智能风险源于风险技术,而其果为技术风险,两者互为因果关联。  
  (一)风险技术:人工智能的风险因子  
  风险技术指技术作为一种服务于主体的工具,具有自身的结构性缺陷。就表现形式而言,风险技术诱发人工智能风险主要通过技术理性的认知局限、人类自身的主观利益、类人自主的它者欲望三个方面展开。  
  首先,技术理性的认知局限。理性是技术的生存论基础,体现为合客观性与合逻辑性的统一〔24〕,人类的技术认知局限隐喻着对技术发展客观性与逻辑性的有限掌握与阶段体悟。换言之,人类无法凭借自身的认知维度去穷尽技术的内涵边界,对于技术迭代升级的追求只能限定在人类的有限理性之中。现阶段因人工智能技术的不成熟性所导致的安全风险比比皆是,这些风险可能源于算法不可解释性、数据强依赖性等单向或复合的技术局限性问题。但是人类按照目前的知识储备,难以科学辨识其根源,导致人工智能技术的研发与应用充满了“试错”风险。超强算法是人工智能技术的核心要件,但是逆向攻击可导致算法模型内部的数据泄露;算法设计或实施有误可产生与预期不符甚至伤害性结果;算法黑箱导致人工智能决策不可解释,引发监督审查困境;对抗样本攻击可诱使算法识别出现误判漏判,产生错误结果。①例如,2018 年 3 月,Uber 自动驾驶汽车因机器视觉系统未及时识别出路上突然出现的行人,导致与行人相撞致人死亡。对于算法的程序构造及其具体运算过程,人类目前尚未找到有效的解决途径,这在一定程度上反映了人类对技术知识的认知局限。
  ①参见中国信息通信研究院安全研究所编著的《人工智能安全白皮书》(2018),2018年9月,第5-10页。
  其次,人类自身的主观利益。人工智能技术的飞速更新,并非仅仅是人类对技术的好奇心,而是夹着更多的资本与利益诉求。一方面高新技术企业是追求人工智能技术的主要动力源,通过研发、推广、运用智能技术得以迅速占据技术市场。苹果公司、Facebook、Google、IBM、华为、阿里巴巴以及腾讯等公司都将发展人工智能技术作为公司首要战略,在研发经费、人才引进等方面加大投入以赢得比较优势,企及获取更为优厚的经济效益。据CB Insights2017年发布的《人工智能状况》显示,人工智能公司的股价在最近的5年中上涨了5倍,相关投资也从2012年的5.59亿美元暴增至2016年的48.71亿美元〔25〕。这表明人工智能的技术利益“大战”已经开始拉开。另一方面,世界主要发达国家高度重视人工智能发展,将其视为国家未来拓殖的重要战略空间。2014年以来美国、英国、欧盟、日本等国家密集发布人工智能相关的国家战略,并单列财政经费支持。美国是世界上第一个将人工智能发展上升到国家层面的国家,人工智能战略规划被视为美国新的阿波罗登月计划。2016年 10月,美国总统办公室连续发布《国家人工智能发展与研究战略计划》和《为人工智能的未来做好准备》两份人工智能发展战略,提出美国扶持人工智能研发的七项战略与二十三条建议。同年11月,美国白宫发布《人工智能、自动化与经济》报告,2018年3月和9月白宫又分别发布《美国国家机器智能战略报告》和《机器崛起:人工智能及对美国政策不断增长的影响》,2019年2月美国国家科技政策办公室发布《美国人工智能倡议》。英国通过《2020年发展战略》加速人工智能研发;欧盟2014年启动全球最大的民用机器人研发计划“SPARC”;日本政府在2015年制定《日本机器人战略:愿景、战略、行动计划》促进人工智能发展。由此可知,人工智能发展已经成为人类社会发展的新一轮技术海啸,无论是国家权力主体,还是企业组织都试图获取人工智能的技术红利,体现了人类的利益至上性。  
  最后,类人自主的它者欲望。一方面人类受制于技术魅惑,退化为单向度的人。美国学者尼古拉斯·尼葛洛庞帝在20世纪90年代提出“数字化生存”术语,表达对信息技术发展未来的一种大胆预测,发出“技术推动的文明进步是好还是坏”的追问。其实,技术是客观性存在的且服务于人类的工具性手段,其无所谓好坏之分。只是,人类在运用技术改造社会的过程中,因逐渐让渡自身的主体性而失去生存的精神维度,最终导致技术异化为“主体”,人类反制于技术时,技术才被赋予否定性批判。“人得以宣传自己是地球的主宰的那种技术展现给人带来的不是伟大的自由和自身性,因为他如此严重地受到技术本质的支配,以致他与事物和世界遭受同一命运:对事物的特性和自身性的毁灭和消灭已经向人进行报应,并残酷地以同样丧失其独立性,以人的本质的丧失而为自己报了仇”〔26〕。马尔库塞(Herbert Marcuse)更为悲观地批判技术魅惑,“机器本身变成了机械工具和关系的体系,并因此而远远超过了个别劳动过程,人类生产者受到机器的支配成为机器的附属物”〔27〕。可以说,数字化生存时代,技术的解放力量成为解放的桎梏,造成的直接后果是社会变成单向度的社会,而人类成为单向度的人。这是智能技术对人类及其社会发动的首轮“战争”,而人类的社会性防线在数字化时代所构建的算法边界中失守了。另一方面,智能体已不再是人类的工具,而是具有独立性和自主性的它者存在,并在与人类的时空竞争中建构智能体的统治权。维纳(N.Winener)认为,“机器能够并肯定会超越他们的设计者的某些局限性,并且当机器实现时,他们可能既是高效的又是危险的”〔28〕。维纳的观点强调人工智能与人类之间存在不可调和的矛盾,人工智能发展的终结,将会是技术反制人类,“机械作为人类与自然斗争的工具将最终支配人类、人类有可能成为机械的奴隶”〔29〕。当人工智能的自主性逐渐增强时,人类与机器脱钩的风险也正在成型,这决定了人类审视人工智能风险后果的必要性。  
  (二)技术风险:人工智能的风险后果   
  马基雅维利(Niccolò Machiavelli)曾指出:“谁渴望预见未来,就必须征询过去,因为人类的事物从来都是与过往的时代类似”,究其根本在于“无论过去,还是未来,人类都被同样的热情激励。结果就是,每个时代都存在同样的问题”〔30〕。1811年至1816年间的英国“卢德运动”(Luddite Movement)就是这种社会问题的一个例证。在“卢德运动”中,工人以破坏机器等物质层面的举动来表达对技术进步的内心忧虑与生存抗争。人工智能作为新一轮的技术形态,其危害程度更甚于以往任何时代的技术革命对人类的影响。总体看,技术的不确定性及其根源的社会性,催生人工智能的风险性,导致人工智能风险后果的广博性与动态性。  
  一方面,从风险涉及面看,由于技术应用的广泛性,人工智能将带来冲击网络安全、社会就业、法律伦理等问题,并对国家政治、经济和社会安全带来诸多风险和挑战。以人工智能引发的政治风险为例,人工智能算法逐渐嵌入民主政治架构中,给政治价值和政治管理以革命性的变革。从技术哲学的角度看,算法作为一种运算能力,根植于“客观实体”内部,并依据“主体”的价值偏好、有限理性对外部世界做出决策判断。我们认为,人工智能算法失灵引致的政治风险是指基于算法运作规则的人工智能体,由于自身内在的算法偏见、算法自利、算法黑箱①等失灵问题,引发对政治正义、政治透明、政治公意等民主价值理念的冲击、损毁乃至背弃,最终给政治系统的有效运行和人类社会发展加盖了一层阴影。基于此,人工智能的政治风险意味着算法失灵的政治风险,预示技术理性对人文价值的撕裂,所带来的后果将会是根本性、全局性和灾难性的。  
  与此相对应的,美国人工智能研究专家Colin Garvey认为人工智能除了引致政治风险外,还存在军事风险、经济风险、社会风险、环境风险、心理生理风险以及精神风险〔31〕。这些风险并非单列存在,而是相互交织共生出技术风险。Colin Garvey从人工智能的政治风险角度,指出人工智能和大数据为精英们提供了前所未有的工具来操纵大众的观点〔32〕:例如2016年英国脱欧(Brexit)和美国唐纳德·特朗普的当选;新闻信息和搜索结果背后的人工智能导致了党派隔离,将选民锁在政党所属的回音室里;最终AI风险巩固和增强美国和其他地方的“后真相时代”的民主危机。同时,Colin Garvey也强调,社会风险会对人工生成的数据进行培训的人工智能系统再现了数据偏见的再生产,〔33〕进一步强化对穷人、种族的社会歧视以及发展中国家的相对剥夺。  
  另一方面,从风险产生的路径看,人工智能风险会经历从工具性风险到价值性风险的动态变迁。在《技术垄断:文化向技术投降》一书中,尼尔·波斯曼(Neil Postman)通过思考技术对人类社会、文化和心理的影响,提出免于技术对文化造成伤害的具体建议。他认为,人类技术的发展可分为工具使用、技术统治和技术垄断三个阶段,对应的人类文化大致也可分为工具使用文化、技术统治文化和技术垄断文化三种类型。在工具使用文化阶段,技术服务、从属于社会和文化;在技术统治文化阶段,技术向文化发起攻击,并试图取而代之,但难以撼动文化;在技术垄断文化阶段,技术使信息泛滥成灾,使传统世界观消失得无影无形,技术垄断就是集权主义的技术统治〔34〕。尼尔·波斯曼技术与文明的演进逻辑对思考当前人工智能之于人类社会的影响具有启发价值。以整体发展阶段的检视,人工智能可划分为“弱人工智能、强人工智能和超人工智能三个阶段。弱人工智能擅长于在特定领域、有限规则内模拟和延伸人的智能;强人工智能具有意识、自我和创新思维,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等人类级别智能的工作;超人工智能是在所有领域都大幅超越人类智能的机器智能”②。换言之,就弱人工智能而言,计算机在心灵研究中的主要价值是为我们提供一个强有力的工具,是人类改造自然和社会的人化力量;就强人工智能(或超人工智能)而言,计算机不只是研究心灵的工具,更确切地说,带有正确程序的计算机其实就是一个心灵,已经具备了机器自主性意识。〔35〕
  ①黑箱是指一个系统,该系统只能得到它的输入值和输出值,而不知道其内部结构。黑箱可以是任何系统,只要是仅根据对其外部性质的研究来对它进行判断的系统。算法黑箱是指人工智能运作过程中内部运算信息的不透明性,主要有三种:因公司商业秘密或者国家秘密而产生的不透明性,因技术文盲而产生的不透明性,以及从机器学习算法的特征和要求将它们有效适用的测量中产生的不透明性。参见高奇琦.人工智能:驯服赛维坦〔M〕.上海:上海交通大学出版社,2018:33;Jenna Burrell,“How the MachineThinks: Understanding Opacity in Machine Learning Algorithms”,Sep.15,2015,https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2660674.
  ②参见中国信息通信研究院安全研究所编著的《人工智能安全白皮书》(2018),2018年9月,第2页。
  这三个阶段的技术转换,潜藏着工具性风险与价值性的风险形态。在弱人工智能阶段,技术风险以工具属性而出现,是一种现实性的风险情形,属于人类可控的风险范畴。随着人类对智能技术的日益精深,工具层面的技术缺陷会被逐渐攻克,弱人工智能阶段的工具性风险会得到有效化解。然而在强(或超)人工智能阶段,人工智能体作为具有独立意识的“主体”而存在,将摆脱服务于人类的工具性行动模式,并与人类处于竞争状态,最终会诱发人工智能的工具性风险升级为价值性风险。在价值性风险阶段,人工智能体逐渐脱离“人类制造”的智能,异化为一种独立人类的它者,有着自身的运作程式和生存机理,它们既不愿受制于阿西莫夫所规制的“机器人三定律”①,又可能以“自身”的“主体性”重构智能体的它者秩序,与人类平分秋色,共享生存空间。这种智能体的价值性诉求,将会是人类有史以来最为严重的社会风险。面对人工智能技术已然形成的社会问题与即将到来的技术风险,人类如何因应,是选择鸵鸟心态,听之任之,还是主动迎击,展现造物主之担当?人类必须有所抉择。  
  
  四、科技向善:人工智能风险的化解思考  
  
  2018年10月31日,习近平总书记在中共政治局集体学习会议上强调:“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控”。为此,我们认为规避人工智能风险必须经由技术自身的发展逻辑然后达于人自身,通过更新人文治理理念、健全治理结构、优化治理工具等面向圈定技术发展边界,最终坚守“在技术发展面前维护人类尊严的底线”〔36〕。  
  (一)在治理理念上:审视人工智能迭代中技术边界与人类底线的关联性  
  技术边界标识技术作为工具性存在的质的规定,体现为技术功能的有限和极限,人类底线则指人相对于自然法则而存在的人的主体性,以及作为人的精神特质和精神生活而显现的人的精神维度〔37〕。人类底线是人之为人的最低标准,是人类区别于其他自然物种的根本属性,而技术边界体现了人类发挥主体性改造自然和社会关系的工具性能力,也归属于人类能够驾驭的技术理性范畴。人类的底线为合理追求技术圈定了有效边界。在技术边界之内,人类可以凭借理性判断维系正常的秩序空间与人类生存,而技术因满足了人类需求而得以更新发展。人的底线思维标识人类价值存在的基础性要件,也是处理人与技术关系的最低尺度。在人工智能技术广泛运用于人类社会时,这种底线维度不能丧失或沦陷,而必须得到应有的重视与强化。原因在于人的主体性与技术的工具性。人类为了维护社会发展目的,必然要制造、使用工具,以释放人类自身的生理局限,这是主体的人类之于工具性的要求。反之,如果人类丧失了底线思维,工具或技术成为主体,人类反制于技术,则表明人性的泯灭与社会秩序瓦解,会衍生出系列社会风险。因此,强化人的底线思维与审视技术发展的边界是今后人工智能技术推广应有的重要议题。  
  (二)在治理结构上:构筑人工智能风险化解的协同治理格局
  ①美国作家艾萨克·阿西莫夫(Isaac Asimov)在小说《环舞》(Run around)中第一次提出,并在小说《我,机器人》(I,Robot)中系统阐释。具体指:第一,不伤害定律:机器人不得伤害人类,也不得见人受到伤害而袖手旁观。第二,服从定律:机器人必须服从人的命令,但不得违反第一定律。第三定律,自保定律:机器人必须保护自己,但不得违反一、而定律。在三条定律在制造机器人时,就被嵌入其大脑,永远无法消除。
  人工智能风险的生成源于技术的客观性缺陷与人类的主观性动机,是高端技术嵌入人类社会系统的不确定性后果,这决定人工智能风险治理是政府、科学共同体、公民社会共同所面临的亟待合作治理才能化解的一项艰巨任务。其一,在传统治理模式中,政府作为风险社会的危机应对主体,拥有化解技术风险的资源优势,然而,由于人工智能的高端技术性与不确定性,其所衍生的技术风险更为复杂性、多样性、严重性,致使单凭政府一己之力难以有效规制风险。其二,“科技风险具有无法预知性,科学共同体难以保持技术中立的立场去提供客观可靠的知识,各治理主体已经不能单纯依靠技术专家的建议展开治理实践”〔38〕。其三,风险具有建构性,是社会公众基于所处时代环境与文化的前瞻性判断,然而在人工智能所引领的时代中,社会公民由于无法获取类似于政府或高端技术企业的知识优势,在风险感知与建构上缺少话语表达权,将加剧人类风险治理的难度。这三类主体化解技术风险的能力缺陷,致使人类社会进入了科林格里奇困境①。改变这种困境的可能路径建要通过构建一种良性互动、横纵联通的协同共治机制。人工智能风险的协同治理机制涵盖政府组织、非政府组织、专家团体以及公众等多元主体。这种治理机制可以“利用各自优势而逐渐组成技术治理的决策权威联盟”〔39〕以克服“没有任何一个机构能够提供支撑决策的全部知识”〔40〕的决策难题,而且“整个决策过程可由共同行动对象网络代替等级关系领导来完成”〔41〕,最终实现政府单一治理体系向多元主体协同共治的模式转变。从协同方式看,人工智能治理风险的协同治理机制在于打破传统风险治理的命令——控制模式,倡导政府与非政府组织、公民等利益主体之间的民主协商与平等互动网络,构建“主体间默契配合、井然有序的自发和自组织集体行动过程,通过集体的自组织行为实现社会治理资源配置效用最大化和社会系统整体功能的提升”〔42〕,进而促进人工智能风险的有效治理。  
  (三)在治理工具上:优化人工智能风险治理的多样载体
  ①所谓“科林格里奇”困境,于1980年英国科林格里奇提出,描绘了人类理性与科技风险治理的悖论,即在技术发展早期,可以对技术后果进行控制时,却因各种限制而不知如何控制;当技术后果日益明显时,虽懂得如何控制却很难对其进行控制。参见Collingridge D.The Social Control of Technology.London:Frances Printer,1980.
  ②参见2019年5月16日,第三届世界智能大会的高峰论坛上天津市法学会副会长高绍林的发言. 2019年6月4日,法治日报。http://dy.163.com/v2/article/detail/EGRBQT4O0512906K.html
  公共政策学认为,治理工具是政策主体依治理形势所采纳使用而促使政策共识落地,并转化为治理目标的中介手段与途径。在人工智能风险化解中,治理工具一般涵盖“国家科技规划、行政法规、财政资金与基础设施等为代表的政府性工具,也有价值敏感性设计、社会技术愿景、建构性因素评估、监管式自治、技术利基等科学共同体为主导的治理工具,还有公民社会通过非正式或经政府授权或赋权的治理工具”〔43〕三类。总体看,政府、科技共同体、公民社会的三类主体所设计与选用的工具呈现出刚性与柔性之特色,仅凭单一类治理工具难以实现人工智能风险的治理目标,需要通过优化、整合多样化的治理工具,才能发挥人工智能风险治理的最优效能。其一,就政府主体而言,人工智能风险治理需要坚持多层级立法互补原则适时出台相关法律体系。在国家层面对民事商事法、行政法、刑法、经济法等现行法律制度进行修订,使之适应人工智能的发展需要;在中间层面,要通过国务院行政法规项目推动制定“机器人使用安全管理条例”等;在地方性立法层面,要出台人工智能在政务、家居、医疗卫生等领域的应用发展与风险防治②等具体地方性规章。其二,要提升科技共同体的行业伦理建设,增强人工智能风险化解的可操作性。2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。这些原则有助于治理人工智能发展过程中的有限理性、利益导向以及防范类人主体性,然而由于这些原则多属于抽象性、概括性、原则性的话语表述,对人工智能风险的治理是否带有实践层面的价值则有待实际检验。今后需要从操作层面上,制定防范人工智能风险的管治策略。其三,要加强人工智能技术知识的普及度,提升公民个体对人工智能风险的感知能力与化解能力。上文已从风险涉及面,谈及人工智能将会冲击网络安全、社会就业、法律伦理等问题,同时从风险产生路径,分析人工智能风险从工具性到价值性的阶段跃迁。这两个层面的认知超出了社会公民的一般风险感知能力,长此以往将会造成人类对人工智能风险的内心焦虑与心智失序,而这需要在政府关于人工智能风险知识的系统化普及和制度性救济,构筑社会公民对人工智能风险的理性认知。通过优化、组合政府组织的立法、科技行业的伦理自律、社会公民的风险感知等多样治理工具,方能在发展人工智能技术的同时,有效规制人工智能附加于人类的技术风险。  
  人工智能风险是因人工智能技术的不确定性所诱发的对人类经济结构、社会秩序、伦理道德乃至生存安全等方面的可能性后果。风险技术即技术缺陷,技术风险即技术后果,两者互为因果共筑人工智能风险的客观现实性、主观建构性、技术非人性等特征,致使人工智能风险成为风险社会的一种新的风险类型。同时,人类在推动人工智能迈向风险社会的丛林中,裹挟着资本与权力的合谋、技术人性与物性的撕裂以及人类有限理性与无限欲望的悖论,这是人类社会必须解决的时代议题。虽然我们不可能像卢梭所提倡的那样,返回到原始的、未经文明“污染”的状态,从而完全放弃和拒绝技术,但是我们可以通过更新人文治理理念、构建协同治理机制、优化多样治理工具等途径,并以诗意化方式对待技术与人类的关系,进而有效规避人工智能风险,最终实现人之为人的本性追求。
  〔参考文献〕
  〔1〕 刘盾,刘健,徐东波.风险预测与忧患深思:人工智能对教育发展的冲击与变革——哲学与伦理的思考〔J〕.高教探索,2019,(7).
  〔2〕 马长山.人工智能的社会风险及其法律规制〔J〕.法律科学(西北政法大学学报),2018,(6).
  〔3〕 张凌寒.风险防范下算法的监管路径研究〔J〕.交大法学,2018,(4).
  〔4〕 熊波.人工智能刑事风险的样态评价与规制理念〔J〕.探索与争鸣,2019,(5).
  〔5〕 姚万勤.对通过新增罪名应对人工智能风险的质疑〔J〕.当代法学,2019,(3).
  〔6〕 王燕玲,韩蓄.人工智能体的刑事风险与应对措施〔J〕.学习与实践,2019,(3).
  〔7〕 〔英〕维克托·迈尔·舍恩伯格,肯尼思·库克耶.大数据时代:生活、工作与思维的大变革〔M〕.盛杨燕,周涛译.杭州:浙江人民出版社,2018.193.
  〔8〕 闫坤如,马少卿.人工智能伦理问题及其规约之径〔J〕.东北大学学报(社会科学版),2018,(4).
  〔9〕 张学博.人工智能的宪制想象——从历史的观点切入〔J〕.理论视野,2018,(5).
  〔10〕 万昆.人工智能技术带来的就业风险及教育因应〔J〕.广西社会科学,2019,(6).
  〔11〕 李颖.人工智能时代技术进步对就业影响的研究述评〔J〕.党政研究,2019,(4).
  〔12〕 高奇琦.人工智能时代发展中国家的“边缘化风险”与中国使命〔J〕.国际观察,2018,(4).
  〔13〕 王小芳,王磊.“技术利维坦”:人工智能嵌入社会治理的潜在风险与政府应对〔J〕.电子政务,2019,(5).
  〔14〕 唐钧.人工智能的风险善治研究〔J〕.中国行政管理,2019,(4).
  〔15〕〔17〕 〔英〕安东尼·吉登斯.现代性的后果〔M〕.田禾译.南京:译林出版社,2004.115,52.
  〔16〕 〔法〕乌尔里希·贝克,〔英〕安东尼·吉登斯,〔英〕斯科特·拉什.自反性现代化〔M〕.赵文书译.北京:商务印书馆,2001.5.
  〔18〕 〔法〕乌尔里希·贝克.风险社会政治学〔J〕.刘宁宁,沈天霄编译.马克思主义与现实,2005,(3).
  〔19〕 James Barrat.2013.Our Final Invention: Artificial Intelligence and the End of the Human Era. Thomas Dunne Books, New York.
  〔20〕 刘红波,林彬.中国人工智能发展的价值取向、议题建构与路径选择——基于政策文本的量化研究〔J〕.电子政务,2018,(11).
  〔21〕 Yampolskiy R V, Spellchecker M S.Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures〔J〕.2016.
  〔22〕〔23〕〔37〕 刘同舫.技术的当代哲学视野〔M〕.北京:人民出版社,2017.7,10,5-6.
  〔24〕 Yampolskiy R V, Spellchecker M S.Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures〔J〕.2016,16-17.
  〔25〕 高奇琦.人工智能:驯服赛维坦〔M〕.上海:上海交通大学出版社,2018.190.
  〔26〕 〔德〕冈特·绍伊博尔德.海德格尔分析新时代的技术〔M〕.宋祖良译.北京:中国社会科学出版社,1993.207.
  〔27〕 〔美〕赫伯特·马尔库赛.单向度的人〔M〕.张峰,等译.重庆:重庆出版社,1988.25.
  〔28〕 N.Wiener.Some moral and technical consequences of automation,Science,Vol.3410(1960).
  〔29〕 A.M.Olson.Review:Jaspers,Heideffer,and‘The Phantom of Exitentialism’,Human Studies,Vol.7,1984(3/4):387-395.
  〔30〕 〔南非〕伊恩·戈尔丁,〔加〕克里斯·柯塔纳.发现的时代:21世纪风险指南〔M〕.李果译.北京:中信出版社,2017.53.
  〔31〕 Colin Garvey.AI Risk Mitigation Through Democratic Governance:Introducing the 7-Dimensional AI Risk Horizon.AIES’18,February 2-3,2018,New Orleans,LA, USA.https://doi.org/10.1145/3278721.3278801.
  〔32〕 Cathy O’Neil.2016.Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.Broadway Books,New York. 
  〔33〕 Aylin Caliskan,Joanna J.Bryson,and Arvind Narayanan.2017.Semantics Derived Automatically from Language Corpora Contain Human-like Biases.Science 356(6334),183-186.
  〔34〕 〔美〕尼尔·波兹曼.技术垄断:文明向技术投降〔M〕.北京:机械工业出版社,2013.
  〔35〕 廉师友.人工智能技术导论〔M〕.西安:西安电子科技大学出版社,2000.1.
  〔36〕 田海平,郑春林.人工智能时代的道德:让算法遵循“善法”〔J〕.东南大学学报(哲学社会科学版),2019,(5).
  〔38〕 Kathrin Braun,Cordula Kropp.Beyond Speaking Truth: Institutional responses to Uncertainty in Scientific Governance〔J〕.Science,Technology & Human Values,2010,35(6):771-782.
  〔39〕 谭九生,杨建武.人工智能技术的伦理风险及其协同治理〔J〕.中国行政管理,2019,(10).
  〔40〕 Newman J. Modernising Governance. London:SAGA,2001.
  〔41〕 Bache J. Governing Through Governance: Education Policy Control Under New Labour.Political Studies,2003,52(2).
  〔42〕 范如国.复杂网络结构范型下的社会治理协同创新〔J〕.中国社会科学,2014,(4).
  〔43〕 朱本用,陈喜乐.试论科技治理的柔性模式〔J〕.自然辨证法研究,2019,(10).
  
  
  
  
 
CopyRight 2017-2020 © All Rights Reserved.版权所有:《党政研究》编辑部 未经授权禁止复制或建立镜像

技术支持:四川世毅云网络科技有限公司 | 备案号:蜀ICP备15025617号