德国智库动态第28期
2019-08-30  

德国智库动态

四川外国语大学德国研究中心

第 28 期  2018 年 4 月 28 日_________________________________________

本期主要内容

未来人工智能的全球角力——国际治理的需求以及给德国外交政策的机会

未来人工智能的全球角力

——国际治理的需求以及给德国外交政策的机会

随着当前人工智能领域的各种发展,数字化进程进入了一个新的阶段。人工智能使大量的搜集数据以一种新的方式得到利用成为可能。各国和各企业利用大量的资源来使自己从各种数据分析途径中获益。然而必须考虑到,人工智能依赖于基础数据的质量,其对于很多工作来说是不适合的,并且其至今在很大程度上不受人类的控制。因此,德国应该在相关的国际论坛中发挥自己的影响力,以便对人工智能在敏感政治领域中的使用进行监管。此外,德国联邦政府也要仔细思考,在何种数据基础上、为了何种目的以及在何种条件下,人工智能可以对外交政策方面的战略制定做出贡献。

人工智能(AI)占领了越来越多的生活领域。企业利用人工智能来建立客户数据并分析求职信息。在医学领域,人们希望借此在诸如医学疗法的研究中取得进步。各国政府也越来越依赖人工智能:借助“警务前瞻系统”(predictive policing),人们想让警察和军事情报机构有能力在犯罪行为实施前识别出犯罪迹象。基于人工智能技术的自主武器系统(Autonome, auf KI beruhende Waffensysteme)将会创造新的作战形式。此外,可以预料,在不久的未来,国家将会利用人工智能——例如,通过他国的经济数据进行实时的分析——来制定自己的外交政策。

利用人工智能技术进行信息处理的过程,在未来将能够对纷繁复杂的数据去粗取精。最终的决策权只能暂时留在人类手中,这是因为,事实上人类在数据处理速度和分析能力上已经落在了机器之后。例如,在时序要求严格的应用中,将决策权交给“完美”的机器是一个吸引人的设想。但是,在自主驾驶等领域中得出的经验表明,人类作为技术终端——像所有新技术一样——还是必须介入操控过程,以避免不必要的风险以及明确责任。

在人工智能的发展中存在的另一个挑战是,作为一项技术,人工智能对于政治来说已不仅仅是监管工作的对象。各种公共机构已将人工智能系统投入使用,就此而言,人工智能本身已经可以对政治决策过程产生影响。因此,立法机构、监管机关和国际组织不得不面临部分调整其分析和决策工具的挑战。

什么是人工智能

经过发展,人工智能这一概念(英语名称为tificial Intelligence”, 简称AI)已成为以计算为基础的处理方法的总称。如今许多人工智能应用的基础是数据驱动的机器学习程序。这些程序的运行要以预先的数据建构为前提,借助这些数据可以形成某些特定算法。如此一来,机器就可以学会在照片上区分猫和狗之类的分类。在此过程中,训练数据的数量、性质和代表性对此后所得结果的效力来说是决定性因素。

   人工智能的强项和弱项  

数据驱动的人工智能系统在某些特定情况下提供的分类结果要强于人类。然而,它们的能力范围停留在对个别问题提供特殊的解决方案,这些解决方案至今不可能被普遍化。例如,对于被训练学会在照片上区分猫和狗的系统,让它们认识狼这种动物,已经超出其能力范围。鉴于其所固有的这种限制,如今人工智能系统通常被认为能力不足。虽然在计算机科学和哲学领域不断有人认为,未来机器也可能被赋予发展程度更高的人类的能力,例如抽象思考的能力,但至今仍缺少实现所谓强大的人工智能的所有条件。

机器的学习方法

目前,机器学习的主要方法是所谓以神经网络为基础的深度学习(deep neural networks深度神经网络)。这种神经网络的工作方式是在不同分支点之间形成多层系统。每个单独的层只能掌握一些简单的概念,然而,各层之间的组合却可实现复杂的分析工作。例如,在图片识别过程中,会有一系列特征需要处理,这些特征单独看效力有限,但在相互作用下却可实现区分猫狗之类的工作。

深度神经网络具有大量这类隐藏起来的层(hidden layers隐含层),通过训练可在这些隐含层中形成某些概率值。虽然数据的输入和输出还是在数学关系中产生相互作用,但这种关系不是像人类一样,建立在逻辑推断的基础上,而是以统计学的计算为基础。

所谓的增强学习(reinforcement learning)就是利用深度神经网络组织实现的。为此,相关算法的编制目标是,其要能够使成果最大化(通过奖励机制实现),从而开发出解决问题的策略。这种机制会被预先设置一个抽象的目标,此目标需通过自主学习的过程,也就是试错法(trial and error)来实现。现在,增强学习对复杂的控制任务——例如机器人系统的控制——起着重要作用。此外,人工智能系统所固有的任务处理方式的不确定性,使其在更广泛的领域内得到应用的可能受到显著的限制。

关于人工智能的研究

从2010年代之初以来,人类在人工智能领域取得了显著的进步。这些进步的实现借助的是互联网中结构化数据可用性的不断增强以及现代计算机运算能力和存储能力的提升。越来越多的设备在“物联网”(Internet of Things)意义上的相互连接使有效数据的可用性进一步提升。

大型互联网企业在推动人工智能发展的过程中起着决定性作用。它们为此投入了大量资金,并逐渐处于争夺符合要求的人员的竞争中。也是这个原因,美国的一些领导企业公开了它们的部分研究成果,并将个别软件组件作为“开放源码”(open source)供科学界所用。

在这期间,许多国家都登上了这趟发展的列车,公布了相关的国家促进与发展计划。中国更是宣布要对此进行大量的投资,与此同时其还明确提出要赶上美国的技术领先地位。俄罗斯虽然在这场竞争中失利,但也明确表达了其在这一领域的野心。德法宣布合作建立人工智能研究中心的举动,也被视为是对这场技术竞赛的回应。然而,目前很难估算各国在这一领域的投入规模:即使在民主国家也缺少能够说明实际投资量的可靠数字。在中国和美国等国家,政府和企业的合作,特别在是人工智能军事使用方面的合作,在很大程度上是公众无法接触的,这使投资规模的估算变得更加困难。

国际监管的需求

人工智能系统的特别优势同时也是其需要监管的理由:随着独立工作程度的不断提升,人工智能超越任何特定应用场合的优势在于,其分析数据的速度是人类所无法相比的。在这种能力中隐含着人工智能可能做出更好的知情决策(informierte Entscheidungen)的可能性。然而,这样的结果将会是,人类把做出影响重大的决策的责任交给计算机系统,而其运行方式对于人类来说至今都几乎无法理解。因此有时将人工智能称之为“黑盒”(black box)是完全正确的。

这当然不一定在所有情况下都是问题,然而当人工智能系统在任何政治敏感领域中使用时,都存在监管的需求。国际法的各种标准秩序可以为这方面的国际监管定向。如果德国想要保持其在标准秩序建立上的影响力,其就要适应人工智能系统带来的特殊挑战。

人工智能和国家强制行为

当把人工智能系统的使用置国家层面时,人权标准成为了第一个重要的起始课题。这将人们的注意力引向了与国家强制行为有关的人工智能系统的应用领域。如今,美国和英国等国家已经开始在警务工作中使用人工智能系统:在“预测性警务”(predictive policing)范围内,实施人工智能预测的目标是,判断在何时何地预计会有何人实施犯罪行为。在美国,人工智能系统还被用来协助司法判决的实施,例如帮助确定量刑。在中国,人们可以看到这种发展达到了顶峰:该国引入了一套“社会信用体系”,在其帮助下,该国公民在几乎所有领域的行为都能被掌握,并会被自动翻译为某一制裁评估等级。

在很大程度上还不清楚的是,人工智能系统在国家层面的使用,是否或者怎样得以与人权规定相协调。尤其在要求同等待遇和正规的诉讼程序的权利,或者要求隐私权时,会出现这一问题。欧盟在“预防、调查、侦查和起诉刑事犯罪或执行刑事处罚”(Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung)法案框架内,为个人数据保护而制定的方针,首次提供了相关的依据。

人工智能系统在军事上的使用主要归在国际人道法(humanitäres Völkerrecht)的范围内。众多国家已在(半)自主武器系统的研制中投入大量资金。仅是将使用武力的决策权部分地给予人工智能系统的做法,就会从根本上让国际人道法的保护机制成为问题。作为对这一发展趋势的反应,联合国已在特定常规武器公约(Convention on Certain Conventional Weapons,简称CCW)框架内组建了一个专家小组,其将为自主武器系统的可能监管方式提出建议。

人工智能与企业的权力

另外,监管的需求同样存在于人工智能系统在企业中的使用。国际法中的人权准则再次提供了方向定位:国家有责任保护重要的合法权益不受第三方损害。由于大部分企业都是在跨国领域内行动的,因此各国单独制定的措施必须还要通过合适的国际监管形式加以补充。

亚马逊、谷歌和百度这类私人企业利用人工智能来建立其(潜在)客户的全面信息。这些信息被用来以相对无害的方式多样化地实现广告的个性化,或者提供数字服务——例如提供个性化新闻服务。而与个人相关的信息也可以为影响重大的决策提供基础,例如,银行越来越多的使用人工智能系统来判断其客户的信用等级。领英(Linkedin)等企业还借助这类系统分析求职者的信息。最后,人工智能系统对目前特斯拉、谷歌和百度等企业正在研发的自主交通系统来说,是一个根本性因素。

虽然人工智能系统在企业层面的这种应用方式与国家的强制力无关,但其对越来越多的人产生了显著影响。国家的责任是对这种利用方式进行监管,使其与禁止歧视或隐私权这类人权规定相协调。值得注意的是,在最具影响力的企业中,一些企业自发要求对人工智能的监管进行社会讨论。其中具有示范性的是,深度思考(Deepmind)、苹果(Apple)和IBM这类占据领先地位的公司参与了《阿西洛马人工智能原则》(Asilomar AI Principles)的制定。这些于2017年在美国加利福尼亚州的阿西洛马起草的原则,表达了社会对未来人工智能系统发展的要求。其也指出了为人工智能的使用建立相关法律框架的必要性。

监管的目标

为了能够满足以上所说的监管需求,需要有具体的解决办法,其应将每种应用情景中所包含的技术和政治的特殊性考虑在内。然而,在各种不同的情况之中形成了一些具有决定意义的监管目标。

“废料进,废料出”

首要的共同目标是,避免在使用人工智能系统来让机器协助做决策的过程中产生“错误”结果,审慎检查结果的有效性,限制错误分析引起的负面后果。如上所述,如今的人工智能系统的工作能力基于对数据的归纳式分析。因此可利用数据的数量和质量直接制约着其工作能力。就此而言,前段时间不断增多的关于由人工智能导致的歧视现象发生的报道就不足为奇了。多数情况下都存在的一个中心问题是,人工智能系统会对数据库记录中的歧视现象进行仿制。例如,如果历史数据中反应出男性比女性在更多情况下占据领导岗位的话,那么这就会诱使人工智能系统做出错误的推论,认为男性对于这些岗位来说本身就是更合适的。

因此,数据选择在人工智能的使用中起着重要作用。然而系统本身不能对基础数据的质量给出答复。相反,即使在数据基础不充分的情况下,其仍会不断产生结果,而该结果可能并不具有效力。而且基于数据产生的细微的歧视形式很难识别,因此使这一过程更加复杂化。例如,在对求职者进行评估时虽然可以相对简单地阻止人工智能系统获取他们的性别信息,但并不能排除其它与性别有关联的因素进入数据分析过程中。这种关联越不明显,其就越难从结果中被识别出来。

透明性

对人工智能系统的影响进行关键性分析的基本前提条件是,必须首先设法达到足够程度上的透明性。为此,无论公共还是私人机构都必须说明,其在何种处、出于何种目的,使用人工智能系统。以此为基础,每个涉及到的相关人员都必须明白,人工智能系统会以何种方式、基于何种数据对他们的主要生活方式产生影响。而公共部门和私人行为体也必须详细告知决策者,其将如何使用人工智能系统。

对这种透明性的要求做出更加明确的规定,无论在技术上还是法律上都是一种挑战。从技术上来看,以可理解的方式给出可用的情况说明,虽然不是一件简单的事,但却是可以实现的。例如,在制造人工智能系统时,应该使其能够对各种重要分析因素的情况作出说明,使其能够解释用于真实数据应用的训练性数据具有多大的代表性,并且使其能够证明其分析过程包含何种错误几率。从法律上来看,必须弄清该怎样在有效的情况说明与数据保护和企业对于其知识产权保护的权利之间进行协调。相关人员本身或第三方利益者利用这些情况说明,有目的的对人工智能系统的数据库进行操控的风险也是存在的。

将于五月起在法律上生效的《欧盟一般数据保护条例》(Europäische Datenschutz-Grundverordnung ,简称DSGVO) 首次提供了解决这一复杂问题的途径。这一条例明确规定了在自动化数据分析过程中,相关人员的知情权和抗诉权(DSGVO第22条)。引人注意的是纽约市政当局在这方面也做出了努力,其计划让人工智能系统在该地的使用变得更加透明。纽约市议会在2017年底通过了决议,将要组建一个旨在研究“自动化决策系统”在纽约公共管理中使用的专家小组。这个专家小组将在未来数月内开始工作。

人类的控制

人工智能的吸引力在于至今由人类从事的活动得以让机器来完成。然而在政治敏感领域必须检验,人工智能系统的影响在哪些方面要受到人类的特别控制。

现代人工智能系统的分类方法常被用来让至今被隐藏起来的统计关系显现出来。但这种数据间的相互关系既不是以因果关系为前提,也无法证明其之间的因果关系。因此以人工智能为基础的决策不得不经受人类的可靠性检测。这一过程的实现要以上述的应用数据和算法的透明性为前提。此外要为这种可靠性检测预留足够的时间,以便重建人工智能系统的运行过程。事实上在很多情况中对于这种可靠性检测的要求也是合乎法理的。在一些情况下,决策的实施对相关人员会产生深远的后果,这时人类的监控就不能仅仅局限于在电脑屏幕上的对话框中简单地进行“是-非”操作。此时更需要的是,让这类系统的使用者主动对系统和应用参数进行深入分析。

一个假定的例子可以解释这其中的挑战:有一家公司提供一款以人工智能技术为基础的软件,其可以在德国联邦国防军的国外行动中分析卫星照片,并提供行动计划的建议。为此,相关人员第一步必须检测为系统训练而使用的数据基础是否具有代表性及可应用性。这种检测不能交给软件供应公司来实施。相反,在这种政治敏感领域应该让某个独立的主管机关来承担检测任务。

第二步,地方指挥官必须在个别情况下对专家系统(Expertensystem)得出的结果进行确认,有必要的话,在这些结论接受了已备案的检测工序后,还要对其进行修改。为此他们必须具有必要的专业能力。而在未来对于局势的估测将越来越多地依赖于专家系统的情况下,人们该怎样掌握和保持这种能力,仍然是一个有待解答的问题。

德国外交政策的任务

人工智能的发展和应用在世界上还处于初期阶段。这对于各国政治来说是一个积极创造未来技术和政治发展的机会。作为民主社会的中心,阐明人工智能发展过程中将会产生的伦理、法律和政治问题,是德国联邦议会的核心任务。而这需要社会对应该怎样以及在何种条件下将人工智能应用于哪些领域的问题进行广泛的讨论。此外还必须讨论,哪种国家的、尤其是国际的监管形式适合对相关的政治规定进行有效的转化。为此,在德国社会的讨论中必须顾及到欧盟和联合国框架内的想法和流程。例如,最近已为人们所知的是,欧盟委员会不仅要扩大研究资助,还将着手制定相关的指导方针,以应对人工智能带来的伦理和法律挑战。国际电信联盟(International Telecommunications Union,简称ITU)也在加强其对这一问题的研究。而在联合国《特定常规武器公约》(Convention on Certain Conventional Weapons,简称CCW )框架内关于如何处理自主武器系统发展的谈判正在进行。

此外,如今在处理人工智能的问题上已经有必要建立外交政策上的行动能力。德国人工智能研究中心(Deutschen For-schungszentrum für Künstliche Intelligenz,简称 DFKI)的建立让德国在相关基础研究领域树立起了良好的国际形象。

然而,就像在其它方面一样,如何在数字化过程中形成统一的外交政策行动步骤,也非常困难,这尤其是因为人工智能各方面的管辖权分散在一系列不同的职能部门:科研基金的筹备由联邦教育与研究部负责,而联邦司法部负责人工智能应用中的法律问题,德国劳工部关心的则是人工智能对劳动市场的影响。人工智能的实际应用问题主要是联邦内政部、外交部和情报机构操心的事。负责在不同的国际论坛中进行相关讨论的机构,又分散在外交部、联邦经济事务和能源部以及联邦总理府中。

在某种程度上,这种机构责任的分散性完全符合人工智能问题所涉及的广度,因为其实际上触及到各种不同的政治领域。然而,如果德国想要在未来的发展中发挥自己的外交政策影响,还是需要加强各方面的协调性。例如,在联邦总理府中设立数字化事物国务部长一职的做法就是一个很有远见的举措,这可能是未来在联邦总理府中组建人工智能指导小组的起点。

(本文摘译自德国科学与政治基金会2018年4月分析文章,作者马塞尔·迪克夫(Marcel Dikow)和丹尼尔·雅各布(Daniel Jacob)

(https://www.swp-berlin.org/publikation/das-globale-ringen-um-die-zukunft-der-kuenstlichen-intelligenz/)

《德国智库动态》由四川外国语大学德国研究中心根据德国各大权威智库的公开信息编译,每月30日出版。

地址:四川外国语大学德国研究中心,重庆市沙坪坝区烈士墓,邮编400031

电话/传真:+86 23 6538 5696

电子邮件:dgyjzx@sisu.edu.cn

网址:dgyj.sisu.edu.cn

关闭窗口