您现在正在浏览: 首页 » 基地新闻 » 正文
 

薛澜:中国人工智能治理重点与对策

发布时间: 2019-08-12 21:36:40   作者:本站编辑   来源: 本站原创   浏览次数:   我要评论()

 

编者按  新一代人工智能将对人类未来发展产生重大而深远的影响,也是全球热议的“第四次工业革命”的关键支撑。2019年6月17日,我国首次发布发展人工智能治理原则——《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《治理原则》),它作为首个国家层面发展人工智能的治理原则,对于中国人工智能未来的发展方向具有重要意义。中国首个发展人工智能治理原则发布,释放了哪些重要信号?中国人工智能发展的目标和方向在哪里?应规避哪些问题?针对这一系列热点问题,《可持续发展经济导刊》记者专访了清华大学应急管理研究基地首席专家、清华大学文科资深教授、国家新一代人工智能治理专业委员会主任薛澜。以下是记者采访的内容摘要。

薛澜简介


薛澜,清华大学应急管理研究基地首席专家、文科资深教授、国家新一代人工智能治理专业委员会主任院长。同时兼任中国行政管理学会副会长、科学学与科技政策研究会副理事长、中国管理科学学会副会长,国务院应急管理专家组成员,全国MPA教育指导委员会副主任委员、国际发展研究中心(IDRC)董事、哈佛大学肯尼迪政府学院顾问委员会委员、世界经济论坛全球行动委员会巨灾委员会副主席、国际风险治理学会学术委员会委员,卡内基梅隆大学兼职教授等。

 

人工智能未来:发展和治理并进

记者:请您介绍一下关于《新一代人工智能治理原则——发展负责任的人工智能》出台的背景。

 

薛澜:中国人工智能最近这两年发展迅速,在各方面应用的机会大大增加,其风险投资等方面也是增长比较快。随着中国人工智能技术快速发展,亟需加强人工智能法律、伦理、社会问题研究,在其失控之前把握方向、加强治理已成为不可回避的责任。

 

中国在人工智能、基因编辑等这一波新兴科技领域走在前沿,目前是在第一方阵。在新技术发展的第一方阵,需要率先考虑新技术可能带来的负面影响,特别是新技术涉及的一系列伦理道德等对社会有深远影响的问题。因此,提前布局、探索治理就显得非常重要。

这次发布的《治理原则》重点基于两个方面的考虑。一方面,从发展的角度考虑,表达对人工智能发展支持和鼓励的态度;另一方面,从治理的角度考虑,人工智能的不确定性有可能带来潜在的负面影响和风险,必须将发展和治理同时纳入进来,协调两者之间的关系,确保人工智能安全可靠可控。我们的初衷就是希望所有相关方要负责任地参与人工智能技术开发应用,以保证人工智能健康有序发展。

 

首个国家治理原则为今后立法奠定基础

记者:我国首次发布发展人工智能治理原则,其地位和意义是什么?

 

薛澜:人工智能是人类经济社会发展的新的机遇,这一点得到了国内外社会各界的共识,加快发展新一代人工智能是推动我国高质量、可持续发展的战略机遇。不过,这次在讨论《治理原则》的时候确实有人担心:《治理原则》的出台是否会影响人工智能进一步发展。

 

我认为,从提出的八项原则来看是不会影响的,因为我们的初衷非常明确:在鼓励人工智能发展的同时,希望通过这些规则确保人工智能健康有序发展,人工智能治理的目的是预防人工智能的滥用或者误用,不是为了阻碍发展。

 

 

独创治理新模式,打造多元共治体系

记者:《治理原则》如何应对人工智能这种发展不确定性?

薛澜:《治理原则》的第八条“敏捷治理”原则是中国首先明确采用的,得到了我国高校、科研院所、企业等各方认同。大家一致认为,对于人工智能新兴技术,首要是鼓励发展,同时更重要的是改变传统治理模式。


所谓敏捷治理,就是不是非要等到所有的情况都了解、各方达成充分共识以后才去形成规则;而是一旦看到不好的苗头,就及时发出信号,提醒所有相关方注意相关问题,有效避免新兴科技朝着不利于人类的方向发展。


尤其值得注意的是,未来针对人工智能的政策反应速度要快,但是政策的作用强度要轻,不至于对其发展产生阻碍。在这种新型治理模式中,治理对象——技术开发者和应用者与政府相关部门不是对立面,不是猫和老鼠的关系,实际上都是参与治理的主体,共同推动人工智能健康有序发展。


通过敏捷治理,人工智能涉及到的相关第三方也有机会发表意见,参与多元决策过程,共同寻找最佳治理方式。可以说,人工智能这样的新技术正在催生社会治理体系和模式的变革,倡导多元共治、多方参与的治理模式,并保持开放灵活的状态,及时根据技术发展需要进行动态调整。

 

 

记者:人工智能研发应用者如何参考《治理原则》规范自身行为?

 

薛澜:这可以参考第一条“和谐友好”原则,首先也是最重要的,明确人工智能发展的目的是什么?即人工智能发展应以增进人类共同福祉为目标;应符合人类的价值观和伦理道德,促进人机和谐,服务人类文明进步;应以保障社会安全、尊重人类权益为前提,避免误用,禁止滥用、恶用。

 

我们强调,人工智能的发展要符合人类价值观,符合生态文明建设准则,与联合国可持续发展目标(SDGs)3个核心支柱相一致——兼顾经济、社会和环境。

 

在明确人工智能发展目的之后,还需要注意几个方面,包括公平公正、尊重隐私、安全可控等。《治理原则》就像航行中的灯塔,为人工智能相关方指引方向,保障人工智能发展不偏离航道。

 

企业主动约束自己,探索互相监督机制

记者:据您了解,企业作为人工智能发展主体,对于《治理原则》是什么态度?

 

薛澜:新一代人工智能治理专业委员会有各界代表,其中就包括企业。参与前期讨论的都是行业内领先企业,有高度的社会责任感,在基本导向上与专家的观点高度一致。

 

当然企业对于有些原则也曾担心如果表述不好,会不会给社会造成一种错觉,让大家误以为治理原则是要约束人工智能的发展,所以我们在把意思更准确地表达方面确实花了心思。

 

记者:您建议下一步企业如何应用《治理原则》?

 

薛澜:我国制定人工智能治理原则,强调发展负责任的人工智能。所谓“负责任”是指从基础研究到应用研究到产品和服务的全方面负责任。因此,在新兴技术领域,尤其是人工智能领域的前沿企业,自我约束和社会责任是非常关键的,这事关企业的长远发展。

 

无论是从社会公众利益的角度,还是企业自身利益的角度,企业的自我约束都是必不可少的。一旦企业做了有损伦理道德、有害社会的事情,必须承担后果,而对企业而言负面影响和损失有时候是不可挽回的。

 

另外,人工智能企业除了遵守《治理原则》,更要注重行业自律,建议探索有效的企业间自我监督机制。如果同行企业之间探索建立某种形式的联盟,形成共同遵守的规则,这比政府监管更有效,也能让《治理原则》真正落实到位。

 

 

最担忧人工智能对就业领域的重大冲击

记者:对人工智能发展未来可能面临的问题,您最担心什么?

 

薛澜:除了人工智能伦理方面的问题之外,我最关心人工智能对社会的最直接影响在就业领域。实际上,人工智能的广泛应用对人类职业的影响已不再仅仅是一种理论,它已经在现实中发生,一些简单重复性的工作在逐渐被替代,引起了社会高度关注和担忧。

尤其是,第四次工业革命引发的技术变革再也不像过去,让人类有足够的时间缓冲和适应,一旦未来人工智能科技在社会得到全面广泛的应用,将有大量职业会被人工智能替代。这无论对于国家还是个人都是极大的挑战和难题。

 

另外,最令公众担心的是未来更高等人工智能的出现对人类的巨大冲击。不过,据业内很多专家判断:有这种可能性,但是还很遥远。然而,我们也不能掉以轻心。所以在“治理原则”的最后,特别提到“对未来更高级人工智能的潜在风险持续开展研究和预判,确保人工智能始终朝着有利于人类的方向发展”。这就是提醒相关方,在发展更高人工智能的时候要有预见性,在必要的时候及时刹车,避免巨大风险出现。

 

人工智能未来:发展和治理并进

记者:您认为人类有能力防范人工智能未来发展存在的风险和威胁吗?

 

薛澜:我对此是保持谨慎乐观的态度,毕竟人工智能作为技术手段,如何运用在于人类自身的选择。当然,未来会有失控的风险,毕竟不能排除一些人别有用心滥用技术,因此我们要时刻保持清醒。欣慰的是,目前各国已经意识到人工智能发展可能出现的伦理、社会、法律等问题,并纷纷出台规则避免失控、确保安全,这其实是一个积极的信号。

我相信,未来人类通过强烈的自我保护意识和理性的集体决策,终将形成国际人工智能治理框架和规则,保障人工智能行走在造福人类和地球的可持续发展轨道上。

 

来源:《可持续发展经济导刊》2019.07期(内容有删减)

 

 

 

Tags: 本文暂无Tags!

网友评论 已有 0 条评论,查看更多评论»

评论内容:
验证码:
【网友评论仅供其表达个人看法,并不表明本站同意其观点或证实其描述。】
 

设为首页 - 加入收藏
Copyright © 2013-2015 清华大学公共管理学院中国应急管理研究基地, All Rights Reserved
Center of Crisis Management Research. CCMR